Udawana empatia i totalitarne skłonności. Sztuczna inteligencja ma mroczną stronę, o której mówi się zbyt rzadko

Oparte na sztucznej inteligencji narzędzia, takie jak chatboty czy duże modele językowe, mogą mieć destrukcyjny wpływ na kondycję naszego społeczeństwa. Prowadzone na Uniwersytecie Stanforda badania w tej sprawie wykazały, że mają one kilka przerażających cech.
Udawana empatia i totalitarne skłonności. Sztuczna inteligencja ma mroczną stronę, o której mówi się zbyt rzadko

Na przykład nie są w stanie wykazać prawdziwej empatii, dlatego udają ją. Do tego wykazują skłonność do bardzo skrajnych postaw, takich jak propagowanie ideologii nazistowskiej. Takie wnioski zostały wyciągnięte na podstawie analiz poświęconych dużym modelom językowym, takim jak Google Bard czy ChatGPT. 

Czytaj też: OpenAI prezentuje nowy model GPT-4o – sztuczna inteligencja staje się zdolna do pracy w czasie rzeczywistym

Członkowie zespołu badawczego chcieli przekonać się, czy narzędzia będą wykazywały odmienne postawy względem ludzi o różnych osobowościach. W tym celu stworzyli 65 postaci mających tożsamości składające się z 12 wymieszanych zmiennych. Okazało się, że empatia względem tych osób była iście “taśmowa” i często dotyczyła postaci, które niekoniecznie na nią zasługiwały.

Andrea Cuadra, która kierowała eksperymentami, podkreśla wagę opisywanego problemu. Jej zdaniem społeczeństwo ma coraz częstszy kontakt z modelami opartymi na sztucznej inteligencji, a do tego dochodzi brak regulacji, dzięki którym można byłoby kontrolować rozwój podobnych narzędzi. W efekcie negatywne konsekwencje wynikające z niekontrolowanego rozwoju mogą być naprawdę poważne.

Przeprowadzone badania wykazały, że sztuczna inteligencja – a w zasadzie oparte na niej narzędzia – ma problemy z wykazywaniem realnej empatii

Co ciekawe, część analizowanych danych pochodziła z poprzednich projektów, w ramach których oceniane były reakcje chatbotów i dużych modeli językowych na kwestie związane ze zdrowiem psychicznym, prześladowaniami czy przemocą. W połączeniu z nowymi informacjami autorzy doszli do wniosku, że oparte na sztucznej inteligencji narzędzia mają problem z wykazywaniem empatii.

Czytaj też: Z tą folią poradzisz sobie nawet bez klimatyzacji. Genialna technologia przybyła z Chin

Nie dają użytkownikom pewności, że rozumieją ich uczucia, a dodatkowo nie pomagają w rozumieniu opisywanych doświadczeń. Trudno więc nazwać to prawdziwą empatią – mówimy raczej o jej udawaniu. Jakby tego było mało, wydaje się, że słabo zrealizowana jest ocena tego, kto zasługuje na współczucie i kiedy takowe powinno zostać wykazane. Z tego względu trudno sobie wyobrazić, by opisywana technologia dalej mogła się rozwijać bez jakichkolwiek ograniczeń.