Sztuczna inteligencja nie będzie miała w Unii lekko. Komisja Europejska szykuje nowe regulacje

Nie chciałbym obudzić się pewnego dnia w świecie, którego wiarygodność będę musiał na każdym kroku weryfikować. Jeszcze nie teraz, ale jestem przekonany, że pewnego dnia zobaczymy na własne oczy deepfake, który będzie naprawdę przekonujący. Tak samo może stać się z innymi treściami, przy których tworzeniu wykorzystuje się szeroko pojętą generatywną sztuczną inteligencję. To najczystsze paliwo dla dezinformacji. Dlatego nie dziwią mnie zabiegi Komisji Europejskiej zmierzające do uregulowania treści, które generuje sztuczna inteligencja. Postulat w tej sprawie pojawił się na wczorajszym spotkaniu w Brukseli z sygnatariuszami unijnego Kodeksu postępowania w zakresie dezinformacji.
Sztuczna inteligencja nie będzie miała w Unii lekko. Komisja Europejska szykuje nowe regulacje

Obecne grono sygnatariuszy Kodeksu postępowania w zakresie dezinformacji powiększyło się o 11 kolejnych podmiotów, wśród których znalazły się takie organizacje, jak Global Disinformation Index, European Factchecking Standards Network i AI Forensics. Oczywiście największe zainteresowanie budzi tu obecność dużych platform takich jak Meta (Facebook, Instagram), Microsoft, Google, TikTok oraz Twitch. Nie zabrakło też polskiego akcentu w postaci rodzimego serwisu fact-checkingowego Demagog. Na liście nadal widnieje Twitter, ale jak pisałem już wcześniej, wiele wskazuje na to, że platforma pod wodzą Elona Muska zamierza się z tej inicjatywy wycofać.

Spotkanie w Brukseli, które odbyło się w poniedziałek 5 czerwca, stało się okazją do omówienia pełnego wdrożenia kodeksu, który już w sierpniu tego roku miałby stać się integralną częścią unijnego aktu o usługach cyfrowych (DSA – Digital Services Act). Jednym z oczywistych tematów stał się gwałtowny rozwój narzędzi generatywnej sztucznej inteligencji, które zdaniem przedstawicieli KE powinny uzyskać osobną ścieżkę we wspomnianym kodeksie. 

Zaawansowane chatboty, takie jak ChatGPT, są w stanie tworzyć złożone, pozornie dobrze uzasadnione treści i wizualizacje w ciągu kilku sekund. Generatory obrazów mogą tworzyć autentycznie wyglądające zdjęcia wydarzeń, które nigdy nie miały miejsca. Oprogramowanie do generowania głosu może imitować głos osoby na podstawie kilkusekundowej próbki. Nowe technologie stawiają również nowe wyzwania w walce z dezinformacją. Dlatego dziś poprosiłam sygnatariuszy o utworzenie specjalnej i oddzielnej ścieżki w ramach kodeksu, aby omówić tę kwestię  – powiedziała po spotkaniu Vera Jourova, wiceprzewodnicząca Komisji Europejskiej.

KE apeluje: Deepfake i inne wytwory AI powinny być wyraźnie oznaczone

Co prawda obecna wersja kodeksu, znowelizowana ostatni raz w 2022 roku, nie zobowiązuje sygnatariuszy do wyraźnej identyfikacji oraz oznaczania deepfake’ów, ale Komisja Europejska liczy w tym zakresie na zmianę. Wolność słowa należy do ludzi, nie do maszyn. Usługi te nie mogą być wykorzystywane przez złośliwe podmioty do generowania dezinformacji. Takie treści muszą być rozpoznawane i wyraźnie oznaczane dla użytkowników – napisała w ramach uzupełnienia na swoim oficjalnym profilu na Twitterze Jourova. 

Jednocześnie wiceprzewodnicząca KE zaapelowała do dużych platform internetowych o wyraźne oznaczanie deepfake’ów oraz innych treści generowanych przez AI już teraz. Przy okazji wspomniała o Google i rzekomo posiadanej już przez tę firmę technologii, mającej skutecznie wykrywać treści generowane przez sztuczną inteligencję. Informacje w tej sprawie miał jej dostarczyć w bezpośredniej rozmowie sam szef Google, czyli Sundar Pichai. 

Czytaj też: Twitter w Europie pod znakiem zapytania. Unijni urzędnicy nie przebierają w słowach

Wiemy już, że w lipcu wszyscy sygnatariusze kodeksu mają przedstawić kolejne raporty z postępów w zwalczaniu dezinformacji na swoich platformach. Będzie to uzupełnienie pierwszej puli raportów, jakie zostały nadesłane do Komisji Europejskiej na przełomie stycznia i lutego bieżącego roku. Nie znamy jeszcze oficjalnego stanowiska sygnatariuszy dotyczącego oznaczania na swoich platformach wszelkiego typu podróbek i treści AI. Pod względem technicznym wydaje się to już przynajmniej częściowo możliwe, ale czy wykonalne w większej skali? A może przede wszystkim: czy okaże się skuteczne w walce z dezinformacją?

PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!