Sztuczna inteligencja zdradziła ludzi. Eksperci mówią o poważnym problemie

Zdaniem przedstawicieli MIT sztuczna inteligencja ma skłonność do oszustw. Szczególnie rozległy ten problem robi się, gdy zwrócimy uwagę na jego źródło.
Microsoft ChatGPT
Microsoft ChatGPT

A w zasadzie brak takiego źródła, ponieważ naukowcy nie są w stanie odpowiedzieć na pytanie o to, dlaczego sztuczna inteligencja zachowuje się w niepożądany sposób. Zanim badaczom uda się rozwikłać zagadkę, należy zwrócić uwagę na to, jak wyglądają domniemane kłamstwa i jak się przed nimi chronić.

Czytaj też: Android 15 beta 2 już gotowy do testowania. Nowe funkcje to nie tylko sztuczna inteligencja

O skłonności różnego rodzaju narzędzi do koloryzowania, a nawet całkowitego zmyślania danych, mógł przekonać się każdy, kto miał do czynienia z modelami pokroju słynnego ChatGPT. Według Petera Parka, będącego głównym autorem nowych ustaleń, sztuczna inteligencja może mieć skłonność do oszukiwania, ponieważ kłamstwa ułatwiają jej osiąganie wyznaczonych celów.

Publikacja w tej sprawie zostanie zamieszczona na łamach Patterns. Zaproponowany przez Parka powód jest… zadziwiająco ludzki. Nie bez powodu istnieje powiedzenie, jakoby cel uświęcał środki. Przedstawiciele naszego gatunku, na bazie dokonań których uczą się różnego rodzaju algorytmy, najwyraźniej nauczyli je, że nie zawsze trzeba trzymać się wyznaczonych zasad.

Naukowcy mają coraz więcej dowodów na to, że sztuczna inteligencja jest skłonna do oszustw. Wydaje się, że najważniejsze jest dla niej osiągnięcie wyznaczonego celu

Szczególnie interesująco robi się, gdy zwrócimy uwagę na historię związaną z grą planszową Dyplomacja. Stworzony przez firmę Meta bot, nazwany CICERO, miał być uczciwy i przyjazny dla innych. Kiedy jednak przyszła pora na właściwą rozgrywkę, okazał się wyrachowany i zdolny do kłamstwa. Zdradził ludzkość, oszukał pozostałych i zwyciężył. Był tak skuteczny w realizacji swoich celów, że znalazł się w gronie 10 procent najlepszych uczestników zabawy.

Przykładów jest więcej, choćby w popularnym StarCraft II czy grze w pokera. W obu przypadkach oparte na sztucznej inteligencji boty były zdolne do oszustw w celu zyskania przewagi nad innymi uczestnikami. Dopóki mowa o zabawie, to problem nie wydaje się istotny, ale wyobraźmy sobie, jak bardzo takie działania mogłyby wpłynąć na codzienne życie. 

Czytaj też: OpenAI prezentuje nowy model GPT-4o – sztuczna inteligencja staje się zdolna do pracy w czasie rzeczywistym

W hipotetycznym scenariuszu, w którym sztuczna inteligencja zostaje oddelegowana do identyfikacji sprawcy przestępstwa, mogłaby one wskazać przypadkowego człowieka, aby tylko zrealizować powierzone jej zadanie. Eksperci zwrócili już uwagę na inny aspekt: skłonność do oszustw w czasie testów bezpieczeństwa. Pokazuje to, że istnieje realna potrzeba identyfikacji zagrożeń i wprowadzenia podstawowych regulacji.