GPT-4 zagraża bezpieczeństwu publicznemu. Pierwszy kraj zakazuje generatywnego AI, a to dopiero początek

Też macie wrażenie, że pewne rzeczy w branży technologicznej dzieją się ostatnio za szybko? Na przestrzeni ostatnich tygodni szał wokół generatywnej sztucznej inteligencji przypomina nieco popcorn w mikrofalówce. Wszyscy chcą mieć GPT-4 w swoim produkcie, a jednocześnie już teraz liczba niewiadomych związanych z używaniem tego typu narzędzia oraz jego prawnym usankcjonowaniem, dawno wyszła poza skalę. Prędzej czy później ktoś musiał zaciągnąć hamulec w tym rozpędzonym pociągu. OpenAI został wywołany do tablicy.
GPT-4 zagraża bezpieczeństwu publicznemu. Pierwszy kraj zakazuje generatywnego AI, a to dopiero początek

GPT-4 stał się w zasadzie nowym złotem. Gorączka sięgnęła zenitu i jak teraz nie masz w swoim produkcie czegoś z generatywnym SI, wydajesz się być z automatu na straconej pozycji. To nie jest normalna sytuacja (a przynajmniej nie powinno się nad nią przechodzić do porządku dziennego). Standardowo w kwestii nowych technologii prawo zostaje daleko w tyle, a kwestie związane chociażby z określeniem autorstwa treści wygenerowanej przez SI są dopiero na etapie raczkowania.

Niepokoicie się? Nie jesteście sami, bo do amerykańskiej Federalnej Komisji Handlu (Federal Trade Commission, FTC) wpłynął właśnie wniosek ze strony grupy “technologicznych etyków”, zaniepokojonych aktywnością OpenAI. Przedstawiciele Center for AI and Digital Policy (CAIDP) zarzucają twórcom modelu językowego GPT-4 naruszenie praw ochrony konsumentów, określając narzędzia do generatywnego SI mianem stronniczych, wprowadzających w błąd oraz niebezpiecznych dla bezpieczeństwa publicznego.

@focustechnologie

ChatGPT nie ogarnia memów? 🤔 A może jednak ma RiGCz? Sprawdzamy potężne narzędzie OpenAI w akcji #focustech #chatgpt #memy #AI #sztucznainteligencja

♬ Blade Runner 2049 – Synthwave Goose

GPT-4 zachwyca i zarazem przeraża

Wniosek CAIDP wymienia również potencjalne zagrożenia związane z modelem językowym GPT-4 opublikowanym przez OpenAI w połowie marca. Wśród nich znalazły się takie scenariusze jak tworzenie złośliwego kodu, treści propagandowych oraz nasyconych uprzedzeniami rasowymi i płciowymi, wygenerowanych na bazie stronniczych danych wejściowych, które mogą wpływać np. na proces zatrudnienia. 

Wnioskodawcy przywołują podatność na zjawisko halucynacji SI, problemu dotykającego w szczególności generatywną sztuczną inteligencję (system nie ma dostatecznych danych, więc generuje własne, czyli bajdurzy). Jednocześnie CAIDP apeluje do Federalnej Komisji Handlu o wstrzymanie komercyjnego wdrożenia GPT-4 i przeprowadzenia niezależnej analizy modelu. Zabiega również o stworzenie ogólnodostępnego narzędzia służącego zgłaszaniu wszelkich nieprawidłowości w działaniu generatywnego SI.

Czytaj też: ChatGPT-4 gubi się w zeznaniach. Prześwietlamy nowe narzędzie OpenAI oczami zwykłego użytkownika

Warto przypomnieć, że to nie jedyny sygnał o pauzę w kwestii generatywnego SI. Interwencja CAIDP zbiegła się w czasie z publikacją przez Future of Life Institute listu otwartego, pod którym podpisało się już blisko 1500 ekspertów ds. sztucznej inteligencji oraz prezesów dużych branżowych spółek, w tym również sam Elon Musk (notabene jeden z ojców założycieli OpenAI). 

W jego treści znajdziemy wezwanie do wszystkich organizacji zajmujących się rozwojem SI o przynajmniej  6-miesięcznej przerwy w opracowywaniu systemów potężniejszych od GPT-4. Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania – piszą autorzy otwartego listu Future of Life Institute, organizacji non-profit założonej przez The Musk Foundation (Elona i jego brata, Kimbala).

Wstrzymać czy dopuścić więcej niezależnej kontroli i konkurencji?

Duże modele językowe wymagają potężnej infrastruktury i mocy obliczeniowej, więc są dostępne dla niewielkiej garstki tych, których na to stać. Duzi gracze nie są już tak chętni do prowadzenia polityki pełnej transparentności, która pomogłaby społeczeństwu chronić się przed potencjalnym ryzykiem z ich strony. Pomocne mogą okazać się uboższe, bardziej specjalizowane warianty modeli, bazujące na mniejszej liczbie parametrów – w taką stronę poszedł m.in. Google ze swoim chatbotem Bard.

Nie jestem pewien czy ten dynamiczny rozwój technologii da się jakoś sensownie spowolnić i uregulować. Konkurencja jest zdrowa, ale na pewno potrzebujemy generatywnego SI lepiej dopracowanego, które nie będzie zgodnie w nomenklaturą IT: “testowane na produkcji”. Za dużo już widzieliśmy takich incydentów w przeszłości.

(Aktualizacja 31 marca) ChatGPT ma problemy w pierwszym europejskim kraju

Przedstawiciele GPDP (Garante Per La Protezione Dei Date Personali), czyli włoskiego odpowiednika Urzędu Ochrony Danych Osobowych (UODO) twierdzą, że ChatGPT narusza ogólne warunki rozporządzenia o ochronie danych Unii Europejskiej (GDPR u nas znane jako RODO). W związku z tym urząd wydał wobec OpenAI nakaz zablokowania ChatGPT, również z powodu braku ograniczeń w dostępie osób nieletnich do wspomnianej usługi.

OpenAI ma 20 dni na ustosunkowanie się do nakazu. W razie braku reakcji musi się liczyć z konsekwencjami w postaci surowej kary finansowej (do 4% rocznego obrotu lub 20 mln euro). Warto zauważyć, każdy organ ochrony danych na terenie UE jest uprawniony do takiej interwencji, jeśli dostrzeże zagrożenia dla użytkowników, ponieważ OpenAI nie ma podmiotu prawnego z siedzibą na terenie unijnej wspólnoty. “Ban” dla GPT-4 w pierwszym europejskim kraju może mieć bardzo poważne implikacje, wszak jeśli istotnie narusza on postanowienia RODO, to model językowy może zostać zablokowany także w pozostałych krajach Unii Europejskiej. Niejasnym jest na razie, jak (i czy w ogóle) odbije się to na Microsofcie, którego Bing AI i Copilot wykorzystują przecież GPT-4. Pozostaje czekać na rozwój sytuacji.