Na czym polega kodeks GPAI?
Europejski kodeks dobrych praktyk w sztucznej inteligencji (GPAI Code of Practice) to dobrowolny zestaw zobowiązań, mających na celu przygotowanie branży na wejście w życie restrykcyjnej ustawy o AI – tzw. AI Act – która zaczyna obowiązywać od połowy 2025 roku. Kodeks obliguje sygnatariuszy do:
- zachowania przejrzystości działania modeli AI, m.in. poprzez publikowanie tzw. kart modelowych zawierających szczegółowe informacje o sposobie działania systemów AI, ich ograniczeniach oraz danych wykorzystanych do uczenia,
- dbania o legalność pozyskiwanych danych treningowych,
- aktywnej współpracy z właścicielami praw autorskich przy trenowaniu zaawansowanych modeli generatywnych,
- informowania regulatorów oraz opinii publicznej o potencjalnych zagrożeniach i sposobach radzenia sobie z nimi.
Zadeklarowanie przestrzegania tych standardów uznaje się za “poligon doświadczalny” przed wprowadzeniem obowiązkowej legislacji. Dotychczas do kodeksu przystąpiły m.in. takie firmy jak OpenAI, Microsoft, Google oraz europejskie startupy AI.
Argumenty Meta: ryzyko nadregulacji i barier dla innowacji
W oficjalnym stanowisku Meta argumentuje, że kodeks – w obecnym kształcie – idzie znacznie dalej niż wymagają tego zapisy AI Act. Firma sygnalizuje obawy o bezpieczeństwo własnej technologii oraz przyszłość europejskiej innowacyjności. Joel Kaplan, szef globalnej polityki Meta, pisze wprost:
Proponowany zestaw zasad wykracza daleko poza uzgodnioną już legislację, prowadząc do niepewności prawnej, ryzyka ujawniania tajemnic branżowych, a co za tym idzie – spowolnienia wdrażania innowacyjnych rozwiązań AI nie tylko w samej Europie, ale również na świecie.
Meta podkreśla, że chociaż popiera idee etycznych ram funkcjonowania AI, to narzucone obecnie wymagania mogą niepotrzebnie zniechęcić do inwestowania w Europie i spowodować, że najbardziej innowacyjne projekty będą rozwijać się przede wszystkim poza granicami Unii Europejskiej.
Reakcje rynku i polityków
Odmowa Meta wywołała falę komentarzy zarówno ze strony instytucji unijnych, jak i z branży. Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej ds. cyfrowych, ostrzegła, że brak podpisu pod kodeksem może oznaczać większe trudności dla firmy podczas dostosowywania się do przyszłego prawa:
Każda firma, która rezygnuje z dobrowolnych ram dziś, prawdopodobnie napotka większe wyzwania przy wdrożeniu AI Act w przyszłości.
Z drugiej strony, blisko 40 europejskich firm i organizacji, w tym globalni giganci jak Airbus, ASML czy SAP, w wspólnym liście zaapelowało do Komisji Europejskiej o wyraźne opóźnienie wprowadzania zarówno kodeksu, jak i AI Act. Argumentowali, że zbyt szybkie oraz zbyt rygorystyczne przepisy mogą poważnie osłabić konkurencyjność europejskiego sektora AI – już dziś zacofanego względem USA i Chin.
Europejskie ramy AI – precedens na skalę światową?
Unijny AI Act to pierwsza na świecie kompleksowa regulacja dotycząca sztucznej inteligencji. Celem jest zarówno ochrona praw obywateli Unii, uniknięcie nadużyć oraz zapewnienie przejrzystości działania algorytmów, jak i przyciągnięcie międzynarodowych inwestycji w sektorze AI. W praktyce jednak wielu ekspertów wskazuje, że zbyt restrykcyjne i przedwczesne regulacje mogą sprawić, iż innowacyjne firmy będą szukały bardziej przyjaznych jurysdykcji poza Europą.
Zwolennicy unijnych regulacji odpowiadają jednak, że próby samoregulacji dotychczas nie sprawdzały się w praktyce, a konsekwencje nieetycznego wykorzystywania AI mogą być skrajnie niebezpieczne i wymagają jasnych zasad.
Czy Meta zmieni decyzję? Co dalej z rynkiem AI w Europie?
Meta zastrzegła, że zamierza w pełni dostosować się do przepisów formalnie obowiązujących w ramach AI Act i nie wyklucza ponownego przyjrzenia się kodeksowi, gdyby został on dostosowany do oczekiwań rynku. Pozostaje jednak pytanie, czy brak zaangażowania takich firm jak Meta i Apple nie podważy skuteczności unijnej polityki w zakresie AI.
Czytaj też: Europejscy giganci apelują o wstrzymanie wdrożenia AI Act – otwarty list do Komisji Europejskiej
Ten konflikt jest symbolem szerszej debaty o tym, jak wyważyć interesy ochrony konsumentów, bezpieczeństwa i rozwoju technologii oraz jaką rolę w kształtowaniu globalnego porządku AI powinna odegrać Europa.