Stworzył bombę atomową, a teraz apeluje o regulacje. Właściciel ChatGPT obawia się sztucznej inteligencji

Moje najgorsze obawy dotyczą tego, że wyrządzimy światu poważne szkody – powiedział Sam Altman w trakcie trwającego niemal trzy godziny wysłuchania przed amerykańskim Senatem. Właściciel OpenAI, firmy odpowiedzialnej za rozwój modelu generatywnej sztucznej inteligencji GPT-4, stanowiącego zaplecze dla słynnego już chatbota ChatGPT, przedstawił przy tej okazji własny trzypunktowy system rekomendacji mających pomóc władzom w regulacji branży sztucznej inteligencji.
Stworzył bombę atomową, a teraz apeluje o regulacje. Właściciel ChatGPT obawia się sztucznej inteligencji

Od szerzenia dezinformacji, przez pogłębianie uprzedzeń i nierówności, zakłócanie procesów demokratycznych, masową utratę miejsc pracy, wykorzystanie do celów militarnych, aż do całkowitej zagłady ludzkości – najróżniejsze predykcje krytyków gwałtownego i nieposkromionego rozwoju sztucznej inteligencji przebijały się przez większość czasu wczorajszego spotkania przed senacką Podkomisją Sądownictwa do spraw Prywatności, Technologii i Prawa. Co ciekawe, to sam zeznający przed amerykańskimi kongresmenami właściciel OpenAI jest gorącym orędownikiem regulacji dynamicznego rynku AI.

ChatGPT pod lupą. Właściciel OpenAI posypuje głowę popiołem

W branży technologicznej to przypadek dość rzadki i dający mocno do myślenia w kategorii skali wyzwania, z jakim przyszło nam się mierzyć. O ile Sam Altman zaznaczył swoje ogólnie optymistyczne podejście do kwestii innowacji w dziedzinie sztucznej inteligencji, które mogą przynieść ludzkości sporo korzyści, powtórzył też swoje wcześniejsze stwierdzenie dotyczące konieczności regulacji przez ustawodawcę procesu tworzenia kolejnych modeli sztucznej inteligencji i silnej kontroli już obecnych rozwiązań. Być może dlatego nie usłyszał ze strony kongresmenów kilku kłopotliwych pytań.

Mam tu na myśli pytania o powody stojące za udostępnieniem ChatGPT do Sieci bez wcześniejszej dogłębnej oceny potencjalnego ryzyka, a także arkana tworzenia najnowszej wersji modelu GPT-4. Być może ze względu na to, że pierwszy raz od bardzo dawna przed amerykańskim Senatem znalazł się przedstawiciel tzw. Big Techu, który tak otwarcie bierze na siebie odpowiedzialność za implikacje tworzonych przez własną firmę rozwiązań. Atmosfera na wysłuchaniu była przez to zdecydowanie mniej wojownicza, niż miało to miejsce przy spotkaniu z Markiem Zuckerbergiem czy prezesem ByteDance.

Wydaje się, że OpenAI chce zmyć z siebie ten nieprzyjemny zapach i według The Information szykuje nowy model generatywnej sztucznej inteligencji, tym razem ma on być jednak w pełni otwarty i udostępniany na zasadach Open Source. Na więcej informacji w tym zakresie trzeba jednak jeszcze poczekać.

Szef OpenAI przedstawia swój plan na regulację sztucznej inteligencji

Tymczasem Sam Altman przyniósł na spotkanie w Kongresie zestaw propozycji, mających pomóc władzom w utrzymaniu w ryzach branży sztucznej inteligencji, w szczególności sektora zajmującej się tworzeniem modeli generatywnej sztucznej inteligencji. W ramach trzypunktowego planu postulował o stworzenie agencji federalnej (na wzór FDA, czyli Agencji ds. Żywności i Leków), która miałaby udzielać licencji na tworzenie modeli powyżej pewnego progu możliwości. W razie potrzeby taki urząd miałby możliwość cofnąć licencję, jeśli dany model nie spełnia odgórnych wytycznych dotyczących bezpieczeństwa.

Czytaj też: Coraz więcej krajów przeciwko ChatGPT. Sztuczna inteligencja musi podlegać kontroli

Właściciel OpenAI zaproponował również stworzenie standardów bezpieczeństwa dla modeli o wysokich możliwościach, ograniczając między innymi zdolność do samodzielnej replikacji, jak również stworzenie testów funkcjonalności. Chodzi tu przede wszystkim o weryfikację zdolności danego modelu do generowania prawdziwych informacji i eliminację procesu tworzenia treści, które mogą stanowić zagrożenie dla ludzi. 

Ostatnia z propozycji sprowadza się do wdrożenia wymogu przeprowadzania niezależnych audytów przez branżowych ekspertów nie powiązanych z rządowymi agencjami oraz twórcami konkretnych rozwiązań. W ten sposób będziemy mieć z pewnością większą gwarancję, że tworzone narzędzia spełniają ustalone wcześniej wymogi legislacyjne. Warto pamiętać, że za kwestię regulacji SI poważnie zabrała się już Komisja Europejska.

Co ja właśnie zjadłem? To może być bomba

A co z transparentnością? Dwójka ekspertów branżowych, którzy poza właścicielem OpenAI uczestniczyli w wysłuchaniu przed amerykańskim Senatem, opowiadała się za wymogiem radykalnej przejrzystości, aby uświadamiać użytkowników na każdym etapie, że mają do czynienia z chatbotem. Jeden z nich przytoczył nawet pomysł przypominający etykiety na produktach spożywczych, które informowałyby o komponentach i zestawie danych, które zostały wykorzystane do treningu danego modelu.

Stworzyliśmy potężne i trudne do kontrolowania maszyny przypominające słonia w składzie porcelany – stwierdzili branżowi eksperci. Na co kongresmeni prowadzący wysłuchanie wypowiedzieli wymownie: nam to zamiast słonia przypomina bardziej tykającą bombę. Odniesienie do przełomowego w dziejach ludzkości momentu wynalezienia bomby atomowej wydaje się w tym kontekście dość naturalne. Osobiście żywię nadzieję, że tym razem obejdzie się jednak bez ofiar w ludziach.

PS. Subskrybuj kanał Focus Technologie na YouTubie!