Sztuczna inteligencja zyskuje świadomość? Ta metoda dostarczy odpowiedzi

Wizja świata zdominowanego przez maszyny napędzane sztuczną inteligencją jak na razie wydaje się mało realna, ale część ekspertów ostrzega przed takim scenariuszem. Jednym z pierwszych kroków w stronę jego realizacji byłoby osiągnięcie przez sztuczną inteligencję samoświadomości.
Microsoft ChatGPT
Microsoft ChatGPT

Przez długie lata podstawę w zakresie testowania możliwości takich cyfrowych bytów stanowił test Turinga. Jego założenia rzecz jasna dostosowywano wraz z pojawianiem się nowych wyzwań, ale sedno pozostało w podobnej do pierwotnej formie. Obecnie naukowcy pracują natomiast nad nowymi sposobami testowania możliwości takiego oprogramowania.

Czytaj też: Sztuczna inteligencja została moim trenerem. Sprawdziłem, co potrafi Amazfit Cheetah

W tym przypadku celem były tzw. duże modele językowe (LLM), co do których pojawiały się doniesienia, jakoby zyskiwały samoświadomość. Jednym z głośniejszych przykładów jest rzecz jasna ChatGPT, którego rozmowy z użytkownikami mogą czasami pójść w naprawdę dziwacznym kierunku.

Lukas Berglund  z Vanderbilt University oraz jego współpracownicy zwracają uwagę na potencjalne niebezpieczeństwo, jakie mogłoby pojawić się wraz z niekontrolowanym rozwojem sztucznej inteligencji. Szczególnie groźna miałaby być tzw. świadomość sytuacyjna, w przypadku której model może zacząć rozpoznawać, czy jest obecnie w trybie testowym czy też został wdrożony na większą skalę.

Scenariusz, w którym sztuczna inteligencja zyskuje samoświadomość bez wątpienia mógłby okazać się niebezpieczny. Jak na razie nie wydaje się jednak, by nam groził

Dotychczasowe ustalenia w tej sprawie mają jak na razie formę preprintu i są dostępne w bazie danych serwisu arXiv. Autorzy artykułu zwrócili uwagę na pewien szczególnie istotny aspekt, jakim jest coś, co określają mianem rozumowania poza kontekstem. Odnosi się ono do zdolności przywoływania faktów wyuczonych podczas szkolenia i wykorzystywania ich w czasie testów. Dzieje się tak nawet mimo tego, że owe fakty nie są bezpośrednio związane z podpowiedziami w czasie testów.

Dzięki eksperymentom obejmującym różne modele językowe, takie jak GPT-3 czy LLaMA-1, naukowcy doszli do wniosku, że większe radziły sobie lepiej w zadaniach odnoszących się do rozumowania poza kontekstem. Mimo wszystko trudno określać to mianem samoświadomości. Jeśli jest to krok w stronę jej uzyskania, to jak na razie będzie on zbyt mały, abyśmy mogli mówić o realnym zagrożeniu. 

Czytaj też: To dziwo zmienia kolor i wygina się w każdą stronę. Nieziemska bateria zawróci nam w głowach

Prawdopodobnie jednym z najbardziej znanych krytyków nadmiernego rozwoju sztucznej inteligencji był nieżyjący już fizyk, Stephen Hawking. Wydaje się, że scenariusz rodem z Terminatora jest obecnie poza zasięgiem, choć nie da się ukryć, iż niektóre modele potrafią zaskoczyć nawet samych ich twórców. A jako że ludzkość ma już wystarczająco dużo problemów, to byłoby dobrze, gdyby wydostanie się sztucznej inteligencji spod kontroli człowieka nie stało się kolejnym z nich.