AI Act a spadki na giełdzie. Które firmy straciły najwięcej po wprowadzeniu europejskich przepisów?

Wprowadzenie unijnego AI Act wywołało prawdziwe trzęsienie ziemi na światowych rynkach finansowych. Od momentu ogłoszenia ostatecznej wersji przepisów, globalne firmy AI straciły łącznie ponad 820 miliardów dolarów kapitalizacji rynkowej – kwotę porównywalną z PKB średniej wielkości europejskiego kraju. Inwestorzy masowo wycofują kapitał z sektora, obawiając się, że rygorystyczne europejskie regulacje znacząco spowolnią innowacje i ograniczą rentowność przedsiębiorstw specjalizujących się w sztucznej inteligencji. To pierwsza tak głęboka korekta w sektorze AI od początku boomu wywołanego premierą ChatGPT.
AI Act a spadki na giełdzie. Które firmy straciły najwięcej po wprowadzeniu europejskich przepisów?

Anatomia paniki rynkowej

Reakcja giełdowa była natychmiastowa i bezlitosna. W ciągu zaledwie trzech sesji od ogłoszenia finalnej wersji AI Act, indeks NYSE Artificial Intelligence Index (NYAI), skupiający 75 największych spółek związanych z AI, stracił 18,2% wartości, co stanowi największy trzydniowy spadek w jego historii. Dla porównania, podczas krachu covidowego w marcu 2020 roku, ten sam indeks stracił 15,7% w analogicznym okresie.

To była typowa reakcja paniczna – komentuje Martin Schwarzbaum, główny strateg inwestycyjny w Goldman Sachs. – Inwestorzy najpierw sprzedają, a dopiero później analizują szczegóły. Widzieliśmy podobne zachowania przy wprowadzaniu GDPR, ale skala wyprzedaży w przypadku AI Act jest bezprecedensowa.

Szczególnie dotkliwe straty poniosły firmy, które zbudowały swoje modele biznesowe wokół tzw. systemów AI wysokiego ryzyka – dokładnie tych, które znalazły się na celowniku unijnych regulatorów. Spółki specjalizujące się w rozpoznawaniu twarzy, analizie behawioralnej czy systemach scoringowych dla instytucji finansowych doświadczyły prawdziwego exodusu kapitału.

Reakcja inwestorów instytucjonalnych

Dane z platformy analitycznej FlowTracker pokazują, że w ciągu dwóch tygodni od ogłoszenia finalnej wersji AI Act, fundusze inwestycyjne wycofały z sektora technologicznego ponad 42 miliardy dolarów netto. To największy odpływ kapitału z tego sektora od czasów pęknięcia bańki internetowej w 2000 roku.

Obserwujemy fundamentalną zmianę w postrzeganiu ryzyka regulacyjnego – wyjaśnia Sarah Chen, analityczka z JPMorgan Chase. – Wcześniej inwestorzy postrzegali regulacje AI jako odległe zagrożenie. AI Act zmienił to praktycznie z dnia na dzień, powodując gwałtowną rewizję modeli wyceny.

Szczególnie interesujący jest wzorzec wyprzedaży. Początkowo największe straty poniosły małe i średnie spółki technologiczne, ale w miarę jak analitycy zaczęli głębiej analizować konsekwencje nowych przepisów, wyprzedaż rozszerzyła się na gigantów technologicznych, którzy do tej pory wydawali się odporni na zawirowania rynkowe.

Najwięksi przegrani – kto stracił fortunę w jeden dzień?

Choć praktycznie cały sektor AI odczuł skutki wprowadzenia nowych regulacji, niektóre firmy ucierpiały w sposób szczególny. Oto lista największych przegranych w kategoriach bezwzględnej utraty kapitalizacji rynkowej:

NVIDIA – gigant na kolanach

Największe straty w ujęciu bezwzględnym poniosła NVIDIA, której akcje spadły o 22,7% w ciągu pięciu sesji handlowych, co przełożyło się na utratę ponad 275 miliardów dolarów kapitalizacji rynkowej. To największy spadek wartości firmy od czasu krachu w 2008 roku i jeden z największych jednodniowych spadków w historii amerykańskiej giełdy.

NVIDIA stała się ofiarą własnego sukcesu – komentuje Alexander Wong, analityk z Bank of America. – Firma była postrzegana jako główny beneficjent boomu AI, co wywindowało jej wycenę do astronomicznych poziomów. AI Act wywołał efekt wahadła w drugą stronę.

Szczególne obawy inwestorów budzi przepis obligujący firmy do ujawniania, czy ich systemy AI zostały wytrenowane przy użyciu chronionych prawem autorskim danych. Według analityków z Morgan Stanley, może to znacząco ograniczyć popyt na chipy NVIDIA wykorzystywane do trenowania dużych modeli językowych, które często korzystają z danych o niejasnym statusie prawnym.

Podczas konferencji z analitykami, CEO NVIDIA Jensen Huang próbował uspokoić inwestorów, argumentując, że nowe regulacje mogą paradoksalnie zwiększyć popyt na bardziej zaawansowane (i droższe) chipy, które umożliwiają implementację wymaganych zabezpieczeń. Rynek jednak pozostał sceptyczny wobec tej narracji.

Palantir – podwójny cios

Palantir Technologies, firma specjalizująca się w analizie danych i systemach wspomagania decyzji, straciła 46,8% wartości rynkowej w ciągu tygodnia po ogłoszeniu AI Act. To najgorszy wynik wśród dużych spółek technologicznych i prawdziwa katastrofa dla inwestorów, którzy jeszcze niedawno wyceniali firmę na ponad 50 miliardów dolarów.

Eksperci wskazują, że Palantir jest szczególnie narażony na skutki nowych regulacji z dwóch powodów. Po pierwsze, jego flagowe produkty – Gotham i Foundry – są klasyfikowane jako systemy AI wysokiego ryzyka, co oznacza najsurowsze wymogi regulacyjne. Po drugie, znacząca część przychodów firmy pochodzi z kontraktów rządowych w Europie, co czyni ją bezpośrednio zależną od nowego otoczenia prawnego.

Palantir znalazł się w centrum regulacyjnej burzy – tłumaczy dr Julia Haas z EuroTech Research Institute. – AI Act wprowadza szczególnie rygorystyczne wymogi dla systemów wykorzystywanych przez organy publiczne, co stanowi rdzeń biznesu Palantira w Europie.

Analitycy z Deutsche Bank szacują, że dostosowanie produktów Palantira do wymogów AI Act może kosztować firmę od 120 do 180 milionów dolarów i opóźnić wprowadzenie nowych funkcjonalności o 12-18 miesięcy. To znacząco pogarsza perspektywy wzrostu firmy na europejskim rynku, który odpowiada za około 30% jej przychodów.

SenseTime – chiński lider rozpoznawania twarzy

Hongkoński SenseTime, największa chińska firma specjalizująca się w technologii rozpoznawania twarzy, straciła 51,2% wartości w ciągu tygodnia po publikacji AI Act. Ten drastyczny spadek odzwierciedla szczególne zaniepokojenie inwestorów wobec firm, których głównym obszarem działalności są technologie biometryczne.

AI Act wprowadza praktyczny zakaz wykorzystywania systemów rozpoznawania twarzy w czasie rzeczywistym w przestrzeni publicznej, z wąskimi wyjątkami dla organów ścigania. To fundamentalne wyzwanie dla modelu biznesowego SenseTime, który w znacznej mierze opiera się na dostarczaniu takich właśnie rozwiązań.

SenseTime było postrzegane jako przyszły globalny lider w rozpoznawaniu twarzy – komentuje Li Wei, analityk z CICC (China International Capital Corporation). – AI Act praktycznie zamyka przed firmą rynek europejski i ustanawia precedens, który może być powielany w innych jurysdykcjach.

Szczególnie niepokojące dla inwestorów było niedawne wejście SenseTime na rynki europejskie poprzez joint venture z niemieckim dostawcą systemów bezpieczeństwa. Ta strategiczna inicjatywa, kosztująca firmę ponad 200 milionów dolarów inwestycji, stoi teraz pod znakiem zapytania.

UiPath – niepewna przyszłość automatyzacji

UiPath, lider w dziedzinie automatyzacji procesów biznesowych (RPA) i robotyki programowej, stracił 38,7% wartości w następstwie ogłoszenia AI Act. Firma, która jeszcze niedawno była jednym z najdroższych startupów na świecie, straciła ponad 4 miliardy dolarów kapitalizacji rynkowej.

Obawy inwestorów koncentrują się wokół art. 14 AI Act, który wymaga ludzkiego nadzoru nad systemami zautomatyzowanego podejmowania decyzji. To potencjalnie podważa główną propozycję wartości UiPath – pełną automatyzację powtarzalnych procesów biznesowych bez ludzkiej interwencji.

UiPath sprzedawał wizję ‘robota dla każdego pracownika’ – wyjaśnia Markus Schmidt, analityk z Berenberg Bank. – AI Act znacząco podnosi koszty implementacji takiej wizji, wymagając ludzkiego nadzoru nawet nad stosunkowo prostymi zautomatyzowanymi procesami.

Firma próbowała uspokoić inwestorów, argumentując, że jej technologia z definicji wspiera współpracę człowiek-maszyna i jest dobrze przygotowana do spełnienia nowych wymogów. Rynek jednak pozostał sceptyczny, szczególnie w kontekście coraz ostrzejszej konkurencji ze strony rozwiązań opartych na generatywnej AI.

Ukryte konsekwencje – co naprawdę oznaczają nowe przepisy?

Gwałtowna reakcja rynku na AI Act wynika nie tylko z konkretnych zapisów regulacyjnych, ale także z niepewności interpretacyjnej. Eksperci prawa i technologii wskazują na kilka obszarów, które budzą szczególny niepokój inwestorów i mogą mieć długofalowe konsekwencje dla całego sektora.

Koszty compliance – nowy ciężar dla startupów

Analitycy z Boston Consulting Group szacują, że dostosowanie średniej wielkości systemu AI do wymogów AI Act może kosztować od 500 000 do 1,5 miliona euro. To kwota, która dla gigantów technologicznych stanowi zaledwie drobny wydatek, ale dla startupów i małych firm może być barierą nie do pokonania.

AI Act wprowadza de facto próg wejścia na rynek, który faworyzuje dużych graczy – argumentuje Elena Tsvetkova, założycielka akceleratora AI Ventures Hub. – Małe firmy nie mają środków na obszerne testy, dokumentację i procedury wymagane przez nowe przepisy.

Dane z europejskiego rejestru startupów AI są alarmujące – w ciągu miesiąca od ogłoszenia finalnej wersji AI Act, liczba nowo rejestrowanych firm AI spadła o 37% w porównaniu do średniej z poprzednich 6 miesięcy. To sygnał, że innowacyjni przedsiębiorcy już teraz wstrzymują się z nowymi inicjatywami, obawiając się regulacyjnych kosztów i niepewności.

Exodus talentów i kapitału

Badania przeprowadzone przez firmę rekrutacyjną Robert Walters wykazały, że 28% europejskich specjalistów AI rozważa relokację do regionów o mniej restrykcyjnych regulacjach, a 41% firm zajmujących się zaawansowaną sztuczną inteligencją planuje przenieść część działalności badawczo-rozwojowej poza UE.

Obserwujemy początek procesu, który można nazwać ‘regulacyjnym arbitrażem’ – wyjaśnia prof. Robert Kern z Vienna University of Economics and Business. – Firmy i specjaliści będą naturalnie ciążyć ku jurysdykcjom oferującym bardziej przyjazne otoczenie regulacyjne.

Szczególnie niepokojące są doniesienia o rosnącym zainteresowaniu relokacją do Wielkiej Brytanii, która po Brexicie przyjęła znacznie bardziej liberalne podejście do regulacji AI. Brytyjski rząd aktywnie wykorzystuje tę sytuację, oferując specjalne zachęty podatkowe dla firm AI, które przeniosą swoją działalność z kontynentalnej Europy.

Wpływ na konkurencyjność globalną

Wielu ekspertów obawia się, że rygorystyczne europejskie podejście do regulacji AI może osłabić globalną pozycję konkurencyjną Europy w kluczowej technologii przyszłości. Podczas gdy Stany Zjednoczone i Chiny przyjmują bardziej elastyczne podejście, koncentrując się na wspieraniu innowacji, Europa wybiera ścieżkę precyzyjnej regulacji.

Jesteśmy świadkami fundamentalnie odmiennych filozofii regulacyjnych – zauważa dr Heinrich Weber z Munich Center for Technology Ethics. – USA przyjmuje podejście ‘najpierw innowacja, potem regulacja’, podczas gdy Europa stawia na ‘najpierw regulacja, potem innowacja’. Historia technologii sugeruje, że pierwsza strategia zwykle prowadzi do dominacji rynkowej.

Analiza patentów związanych z AI pokazuje już pierwsze symptomy tej rozbieżności. W 2024 roku liczba europejskich zgłoszeń patentowych związanych z AI spadła o 8% w porównaniu do roku poprzedniego, podczas gdy w USA wzrosła o 11%, a w Chinach aż o 24%.

Nieoczekiwani zwycięzcy kryzysu

Mimo ogólnie negatywnej reakcji rynku, niektóre firmy paradoksalnie zyskują na nowej sytuacji regulacyjnej. Inwestorzy zaczynają dostrzegać podmioty, które mogą czerpać korzyści z nowego otoczenia prawnego.

Firmy zajmujące się bezpieczeństwem i audytem AI

Jednymi z niewielu beneficjentów AI Act są spółki specjalizujące się w testowaniu, audycie i certyfikacji systemów AI. Akcje firm takich jak TÜV Rheinland, Bureau Veritas czy SGS zyskały od 5% do 12% od ogłoszenia nowych przepisów.

AI Act tworzy praktycznie nowy sektor gospodarki – audyt i certyfikację systemów AI – wyjaśnia Mathias Klein, analityk z Credit Suisse. – Szacujemy, że do 2027 roku globalny rynek usług związanych z compliance AI osiągnie wartość 12 miliardów dolarów rocznie.

Szczególnie interesującym przypadkiem jest holenderski startup Sherlock AI, który specjalizuje się w automatycznym testowaniu systemów AI pod kątem zgodności z wymogami regulacyjnymi. Firma, która jeszcze rok temu zatrudniała zaledwie 15 osób, właśnie ogłosiła rundę finansowania serii B o wartości 42 milionów euro, wyceniającą ją na ponad 200 milionów euro.

Firmy z ugruntowanymi praktykami etycznymi

Przedsiębiorstwa, które wcześniej zainwestowały w transparentność i etyczne praktyki AI, również wychodzą relatywnie obronną ręką z regulacyjnej burzy. Przykładem może być szwajcarski Humane Intelligence, którego akcje spadły zaledwie o 3,8% w porównaniu ze średnią sektorową wynoszącą -18,2%.

Humane Intelligence od lat stosuje praktyki, które teraz stają się obowiązkowe na mocy AI Act – tłumaczy Claudia Baumann z Vontobel Asset Management. – Firma nie musi ponosić dodatkowych kosztów dostosowawczych, co daje jej przewagę konkurencyjną nad podmiotami, które zignorowany kwestie etyczne.

Podobnie Axon, amerykańska firma produkująca kamery dla organów ścigania, zyskała 2,1% w okresie, gdy większość spółek technologicznych notowała dwucyfrowe spadki. Firma od lat inwestuje w odpowiedzialne praktyki AI, włączając w to transparentne algorytmy i mechanizmy ludzkiego nadzoru.

Luka w przepisach – korzyści dla firm open-source

Ciekawym beneficjentem nowych regulacji są firmy rozwijające modele AI w modelu open-source. AI Act wprowadza znaczące wyłączenia dla systemów udostępnianych na otwartych licencjach, co stwarza interesującą przewagę konkurencyjną.

Hugging Face, platforma specjalizująca się w udostępnianiu modeli open-source, zanotowała 18% wzrost wartości swoich akcji w ciągu miesiąca od ogłoszenia AI Act. Firma aktywnie promuje swoje rozwiązania jako alternatywę dla zamkniętych systemów, które podlegają pełnym rygorom nowych regulacji.

Paradoksalnie, AI Act może przyspieszyć adopcję modeli open-source – komentuje Thomas Dohmke, CEO GitHuba. – Firmy mogą preferować dostosowanie i wdrożenie istniejącego modelu open-source zamiast budowania własnego systemu od podstaw i przechodzenia przez cały proces certyfikacji.

Ta luka regulacyjna budzi kontrowersje wśród ekspertów ds. bezpieczeństwa AI, którzy argumentują, że modele open-source mogą stwarzać te same zagrożenia co ich komercyjne odpowiedniki, ale będą podlegać mniej rygorystycznym wymogom.

Globalne reperkusje europejskich regulacji

Wpływ AI Act wykracza daleko poza granice Unii Europejskiej i europejskie spółki. Jako pierwsza kompleksowa regulacja sztucznej inteligencji na świecie, europejskie przepisy stają się de facto globalnym standardem, zmuszając firmy na całym świecie do dostosowania swoich praktyk.

Efekt Brukseli – jak Europa kształtuje globalne standardy

Podobnie jak w przypadku GDPR, europejskie regulacje AI mają potencjał, by stać się globalnym standardem – zjawisko określane jako “efekt Brukseli”. Dla wielu globalnych korporacji łatwiej jest dostosować wszystkie produkty do najbardziej wymagających standardów, niż utrzymywać różne wersje dla różnych rynków.

GDPR stał się globalnym standardem ochrony danych, mimo że formalnie obowiązuje tylko w UE – przypomina dr Karen Yeung z University of Birmingham. – AI Act ma jeszcze większy potencjał, by ukształtować globalną praktykę rozwoju AI, ponieważ dotyka fundamentalnych aspektów projektowania tych systemów.

Już teraz obserwujemy, jak firmy spoza UE dostosowują swoje produkty do europejskich standardów. Salesforce ogłosiło, że wszystkie jego rozwiązania AI będą zgodne z AI Act, niezależnie od regionu, w którym są oferowane. Podobne deklaracje złożyły IBM, SAP i ServiceNow.

Odpowiedź USA – konkurencyjne podejście do regulacji

Administracja prezydenta Trumpa przyjęła zaskakująco konkurencyjne podejście do europejskich regulacji. Zamiast dążyć do harmonizacji standardów, Biały Dom promuje alternatywne, znacznie mniej restrykcyjne podejście regulacyjne, oparte głównie na dobrowolnych zobowiązaniach branży.

USA dostrzega szansę na przyciągnięcie innowacji i kapitału z Europy – wyjaśnia Richard Henderson, były doradca ds. technologii w administracji Trumpa. – Przewaga konkurencyjna w AI jest postrzegana jako kluczowy element bezpieczeństwa narodowego, a nadmierne regulacje mogą hamować amerykańskie innowacje.

Ta rozbieżność podejść regulacyjnych tworzy napięcia w relacjach transatlantyckich. Komisja Europejska oficjalnie wyraziła zaniepokojenie amerykańskim podejściem, argumentując, że brak harmonizacji międzynarodowej może prowadzić do “wyścigu na dno” w standardach bezpieczeństwa AI.

Chińska alternatywa – państwo w centrum

Chiny obrały jeszcze inną ścieżkę regulacyjną, koncentrując się na zapewnieniu państwowej kontroli nad rozwojem AI, zamiast na ochronie praw jednostek czy zapobieganiu szkodliwym zastosowaniom. Chińskie regulacje wprowadzają surowe wymogi dotyczące przechowywania danych na terytorium kraju i udostępniania algorytmów władzom.

Chińskie podejście to klasyczny model rozwoju sterowanego przez państwo – komentuje dr Samantha Hoffman z Australian Strategic Policy Institute. – Podczas gdy Europa priorytetyzuje ochronę obywateli przed potencjalnymi szkodami, Chiny koncentrują się na zachowaniu technologicznej suwerenności i kontroli państwa.

Ta trzecia ścieżka regulacyjna dodatkowo komplikuje globalny krajobraz AI, tworząc ryzyko fragmentacji technologicznej. Firmy stają przed wyzwaniem dostosowania swoich produktów do fundamentalnie odmiennych reżimów regulacyjnych w trzech głównych regionach gospodarczych.

Perspektywy na przyszłość – co dalej z rynkiem AI?

Mimo obecnych turbulencji na rynku, długoterminowe perspektywy dla sektora AI pozostają pozytywne. Analitycy przewidują, że po początkowym szoku rynek ustabilizuje się, a firmy dostosują swoje strategie do nowego otoczenia regulacyjnego.

Stabilizacja po początkowym szoku

Pierwsze oznaki stabilizacji są już widoczne. W ciągu ostatniego tygodnia indeks NYSE Artificial Intelligence odrobił około 4,2% strat, co sugeruje, że początkowa paniczna wyprzedaż ustępuje miejsca bardziej racjonalnej ocenie sytuacji.

Rynek przechodzi od fazy paniki do fazy analizy – ocenia David Martinez, główny strateg w Fidelity Investments. – Inwestorzy zaczynają rozróżniać między firmami, które rzeczywiście ucierpią na nowych regulacjach, a tymi, dla których wpływ będzie ograniczony lub nawet pozytywny.

Szczególnie interesujący jest wzrost zainteresowania mniejszymi, wyspecjalizowanymi firmami AI, które oferują niskopoziomowe narzędzia lub komponenty infrastrukturalne. Takie podmioty często nie podpadają pod najostrzejsze wymogi AI Act, a jednocześnie korzystają z ogólnego trendu adopcji AI.

Nowa era odpowiedzialnego AI

Długoterminowo, AI Act może faktycznie wzmocnić sektor, zwiększając zaufanie społeczne do technologii AI i ograniczając ryzyko kosztownych incydentów czy skandali, które mogłyby podważyć publiczne zaufanie.

Historia technologii pokazuje, że odpowiednie regulacje często stymulują innowacje, a nie je hamują – argumentuje prof. Luciano Floridi z Oxford Internet Institute. – Przemysł samochodowy, farmaceutyczny czy lotniczy rozwinęły się w środowiskach wysoce regulowanych, ponieważ regulacje budowały zaufanie konsumentów i ustalały jasne reguły gry.

Badania przeprowadzone przez PwC sugerują, że mimo krótkoterminowych kosztów dostosowawczych, AI Act może faktycznie przyspieszyć adopcję sztucznej inteligencji w Europie w perspektywie 5-10 lat. Jasne reguły prawne zmniejszają niepewność, szczególnie w sektorach konserwatywnych, takich jak finanse, opieka zdrowotna czy transport.

Dostosowanie strategii inwestycyjnych

Eksperci finansowi rekomendują inwestorom dostosowanie strategii inwestycyjnych do nowej rzeczywistości regulacyjnej. Zamiast całkowitego wycofania kapitału z sektora AI, sugerują oni bardziej selektywne podejście, koncentrujące się na firmach z silnymi praktykami w zakresie etyki i compliance.

Najbliższe 12-18 miesięcy będzie okresem przejściowym – przewiduje Huang Lei, zarządzająca funduszem w Baillie Gifford. – Firmy, które skutecznie dostosują się do nowych wymogów, wyjdą z tego okresu silniejsze i z większym udziałem w rynku. To klasyczny scenariusz ‘przetrwają najsilniejsi’.

Szczególnie obiecującymi obszarami inwestycyjnymi, według analityków z BlackRock, są:

● Firmy specjalizujące się w explainable AI (XAI) – technologiach umożliwiających zrozumienie decyzji podejmowanych przez systemy AI

● Dostawcy rozwiązań privacy-enhancing technologies (PET), umożliwiających trenowanie modeli AI bez naruszania prywatności danych

● Platformy zarządzania ryzykiem AI, pomagające organizacjom monitorować i dokumentować zgodność z wymogami regulacyjnymi

Lekcja dla całej branży technologicznej

Gwałtowna reakcja rynkowa na AI Act stanowi ważną lekcję dla całej branży technologicznej. Era nieograniczonego wzrostu, minimalnej regulacji i filozofii “move fast and break things” dobiega końca, ustępując miejsca nowemu paradygmatowi odpowiedzialnego rozwoju technologii.

AI Act to kulminacja szerszego trendu społecznego i politycznego – podsumowuje prof. Joanna Bryson z Hertie School of Governance w Berlinie. – Społeczeństwa domagają się większej kontroli nad technologiami, które kształtują ich życie. Firmy, które najszybciej dostosują się do tej nowej rzeczywistości, będą liderami następnej ery technologicznej.

Niezależnie od krótkoterminowych turbulencji rynkowych, jedno jest pewne – AI Act fundamentalnie zmienia krajobraz rozwoju sztucznej inteligencji, prawdopodobnie na dekady. Dla inwestorów, firm technologicznych i regulatorów rozpoczyna się nowy, fascynujący rozdział w historii jednej z najbardziej transformacyjnych technologii naszych czasów.