Sztuczna inteligencja miewa halucynacje. Efekty mogą być tragiczne

Jeszcze zanim pojawiła się sztuczna inteligencja, straszono nas buntami robotów oraz podobnymi mało przyjemnymi efektami. A gdy się pojawiła, zaobserwowano u niej zjawisko, którego chyba nikt nie przewidział. Są to halucynacje. W jaki sposób “odlatuje” SI i dlaczego?
Sztuczna inteligencja (SI)
Sztuczna inteligencja (SI)

Duże modele językowe (czyli LLM, Large Lanuage Models) są wykorzystywane do działania wielu powszechnych już funkcji i narzędzi, zaczynając od ChatGPT (z każdym numerkiem) i Midjourney, kończąc na chatbotach. Oczywiście na tym ich rozwój się nie kończy, jednak dalsze trenowanie SI przyniosło efekt dość niespodziewany. Otóż coraz częściej zaczyna ona opowiadać po prostu bzdury. Co jednak istotne – nie robi tego świadomie.

Sztuczna inteligencja fantazjuje i przekłamuje

Studium tego zjawiska zostało opisane na łamach Nature Human Behaviour. Autorzy tekstu – a są nimi badacze z uniwersytetu w Oksfordzie – uderzają na alarm i nawołują do ochrony nauki przed błędami popełnianymi przez SI, które mogą prowadzić na manowce badań i eksperymentów naukowych. O co chodzi? Wypada zaznaczyć na samym początku, że nie potępiają w ciemno LLM. Zauważają, że może ona służyć jako źródło wiedzy i generowania odpowiedzi na pytania lub komendy (prompty), jednak podkreślają przy tym, że nie ma żadnej gwarancji tego, że będą one zgodne z rzeczywistością.

Czyli jak w starym dowcipie, gdzie to był mędrzec, który udzielał odpowiedzi na każde pytanie, ale na końcu zawsze dodawał: “no chyba, że się mylę”. Ale dlaczego sztuczna inteligencja mogłaby kłamać? Nie mamy tu do czynienia ze świadomym działaniem ani jakimś globalnym spiskiem. Wyjaśnienie jest banalne, a wina leży – jak zwykle – po stronie człowieka. A konkretniej – ludzi, ponieważ LLM-y są szkolone na źródłach online. A te jak wiadomo nie zawsze są wiarygodne. Teksty, na jakie każdy z nas natrafił w sieci, są czasami pełne nie tylko fałszywych informacji czy przekłamań lub pseudonauk (vide płaskoziemcy), ale po prostu zawierają błędy rzeczowe.

Jak zauważa jeden z autorów tekstu, profesor Brent Mittelstadt, “ludzie często antropomorfizują LLM, traktując je niczym guru”. I zasadniczo sztuczna inteligencja może pełnić taką rolę, a w iluzji człowieczeństwa wspierają ją składne wypowiedzi (zarówno pisane, jak i mówione). W efekcie nabiera się do niej zaufania, a podanych informacji nie weryfikuje w innych źródłach. W przypadku istotnych nauk, jak edukacja czy badania, to poważny błąd, mogący mieć liczne konsekwencje.

Czytaj też: Sztuczna inteligencja nabyła cechy typowe dla człowieka. Niebywałe osiągnięcie naukowców

Jakie? No cóż, tutaj można posłużyć się wyobraźnią i wyimaginować sobie mnóstwo tragicznych wydarzeń spowodowanych przez np. niewłaściwe dobranie składników leków, preparatów chemicznych czy też zastosowanie nieodpowiedniej mocy w technologii. Niech każdy wymyśli sobie własny, czarny scenariusz – ma on szansę na realizację, jeśli sztuczna inteligencja będzie karmiona (czyli trenowana) fałszywymi danymi.

I takie właśnie podawanie fałszywych informacji zostało ochrzczone mianem “halucynacji SI”. A wniosek jest prosty: jeśli zapytasz o coś sztuczną inteligencję i dostaniesz odpowiedź, koniecznie ją zweryfikuj ją przynajmniej w jednym źródle. A najlepiej w kilku. Pamiętajmy – nie ma rzeczy doskonałych, a SI nie jest wyjątkiem od tej reguły.