ChatGPT nie tylko ma halucynacje. Zaczyna pokazywać klasyczne oznaki demencji

W listopadzie ubiegłego roku po raz pierwszy dostrzeżono u ChatGPT objawy czegoś, co można by nazwać halucynacjami. Teraz pojawiły się kolejne “ludzkie skrzywienia”. Jedni mówią, że przypominają one demencję, inni – kompletne szaleństwo. Co się dzieje?
ChatGPT
ChatGPT

Sztuczna inteligencja potrafi pozytywnie zaskoczyć, ale może także zadziwić w sposób negatywny. Czasem “fantazjuje” i przkłamuje fakty, a od czasu do czas po prostu… bełkocze. Tak właśnie zaczęła robić minionej nocy, wprawiając w osłupienie użytkowników. Podzielili się oni światem swoimi doświadczeniami, dzięki czemu możemy zobaczyć na własne oczy, jak wygląda “szaleństwo SI”.

ChatGPT do psychologa?

Duże modele językowe (LLM) to fundament sztucznej inteligencji, budowany z informacji wprowadzanych z różnych źródeł. Jednak nie można zapominać o tym, że jak każde oprogramowanie, także i to nie jest tak do końca perfekcyjne. Zdarzają się różne bugi i glitche, prowadzące do dziwnych zachowań i podawania bezsensownych informacji. Tak właśnie stało się teraz, gdy bazujące na ChatGPT usługi – jak Copilot – zaczęły pisać ludziom po prostu bzdury.

W sumie można się było tego prędzej czy później spodziewać – oprogramowanie do obsługi LLM-ów jest cały czas rozwijane, a w takiej sytuacji istnieje bardzo duże ryzyko, że coś zostanie przeoczone. I właśnie mamy do czynienia z “halucynacjami” lub bełkotaniem. Winna może być choćby literówka w kodzie oprogramowania czy źle działający algorytm – póki co nie jest to wyjaśnione. W nocy z 20 na 21 lutego czasu polskiego, użytkownicy ChatGPT zaczęli zgłaszać do OpenAI informacje o dziwnym zachowaniu chatbota.

Jednym z najczęściej spotykanych błędów było pisanie w… Spanglishu, czyli kombinacji angielskiego i hiszpańskiego.

Czytaj też: Sztuczna inteligencja miewa halucynacje. Efekty mogą być tragiczne

W innych przypadkach chatbot powtarzał kilkadziesiąt razy te same słowa lub podawał bezsensowne porady, powołując się na bezpieczeństwo użytkownika.

OpenAI prowadzi już śledztwo, mające wykryć przyczynę takiego szalonego zachowania sztucznej inteligencji, jednak póki co nie ma jeszcze żadnych oficjalnych informacji na ten temat. Spodziewamy się, że pierwsze ustalenia zostaną podane do publicznej wiadomości już dzisiaj. Sami użytkownicy niezbyt przejęli się wadliwym działaniem SI i robią sobie z niego żarty, podejrzewając, że sztuczna inteligencja zmieniła w osobliwość poza ludzką kontrolą.