Już nawet Google nie wierzy w bajki o samoświadomości AI. Głupio mi, że dałem się nabrać

W świecie sztucznej inteligencji od kilku lat regularnie powraca jedno pytanie: czy zaawansowane modele językowe, takie jak ChatGPT, Gemini czy Claude, mogą kiedyś osiągnąć świadomość? Sam byłem częścią tej debaty i z czasem coraz bardziej wierzyłem w mrzonki niektórych osób o realności tego zjawiska. No bo skoro AI coraz lepiej imituje ludzkie zachowania, prowadzi naturalne rozmowy i potrafi analizować emocje, to czemu granica między symulacją a prawdziwym myśleniem miałaby nie ulec zatarciu?
Już nawet Google nie wierzy w bajki o samoświadomości AI. Głupio mi, że dałem się nabrać

Debata wciąż trwa: czy sztuczna inteligencja zyska samoświadomość?

Wygląda na to, że nie musimy się nad tym dłużej głowić, ponieważ naukowcy związani z Google DeepMind opublikowali pracę, która uderza w sam fundament tej wizji. Artykuł, o którym mowa, sugeruje, jakoby współczesna sztuczna inteligencja mogła jedynie udawać świadomość, a zarazem nigdy realnie jej nie posiąść. 

Czytaj też: Zrobili darmowe narzędzie, które zawstydza całą branżę. Sztuczna inteligencja może być “dobra”

Autorem tej publikacji jest Alexander Lerchner, filozof i badacz związany z DeepMind. Według niego obecna debata o świadomej AI opiera się na błędnym założeniu, które określa mianem błędu abstrakcji. Chodzi o przekonanie, że jeśli system komputerowy zachowuje się podobnie do człowieka i przetwarza informacje w złożony sposób, to musi istnieć możliwość pojawienia się świadomości niezależnie od fizycznego podłoża.

Lerchner uważa jednak, że to poważne nieporozumienie. W swojej pracy podkreśla: obliczenia wykonywane przez komputer są jedynie symbolicznym odwzorowaniem procesów, a nie samym doświadczeniem. Innymi słowy:, komputer może perfekcyjnie symulować emocje, introspekcję czy samoświadomość, ale nadal nie oznacza to, że cokolwiek naprawdę czuje.

Naukowcy związani z Google DeepMind porzucają nadzieje

Zgadzam się z porównaniem tej zależności do symulacji ognia w grze komputerowej. Ogień na ekranie wygląda realistycznie, reaguje na otoczenie i może nawet generować efekty świetlne, ale nigdy nie wytworzy prawdziwego ciepła. Według autorów publikacji podobnie działa współczesna AI: potrafi imitować świadomość, lecz nie posiada subiektywnego doświadczenia.

W ogólnym rozrachunku publikacja uderza w nurt zwany funkcjonalizmem obliczeniowym. To popularna teoria filozoficzna zakładająca, że świadomość wynika z odpowiednio złożonych procesów informacyjnych, niezależnie od tego, czy zachodzą one w ludzkim mózgu, biologicznym organizmie czy komputerze. Wielu zwolenników rozwoju AGI, czyli ogólnej sztucznej inteligencji uważało dotąd, iż wystarczająco zaawansowany model językowy może pewnego dnia “obudzić się” i uzyskać własne doświadczenia wewnętrzne.

Czytaj też: Sztuczna inteligencja w kuchni i warsztacie. Roboty wreszcie radzą sobie z krzywymi kształtami

Ale na podstawie rewelacji przedstawiciela DeepMind proponowałbym zupełnie inne spojrzenie. Zdaniem Lerchnera sama abstrakcyjna struktura obliczeń nie wystarcza do wygenerowania świadomości, ponieważ symbole i operacje matematyczne nie mają znaczenia same z siebie. Sens nadaje im dopiero obserwator, a więc człowiek interpretujący wyniki działania systemu. W takim ujęciu AI pozostaje niezwykle zaawansowanym narzędziem statystycznym, które przewiduje kolejne słowa i reakcje, ale nie posiada żadnego wewnętrznego świata I na tym możemy zakończyć dyskusję, choć jedno jest pewne: wraz z rozwojem AI pytanie o granice świadomości maszyn będzie wracać coraz częściej.

Źródło: Google DeepMind

Napisane przez

Aleksander Kowal

Redaktor
Z wykształcenia romanista (język francuski oraz hiszpański) ze specjalizacją z traduktologii. Dziennikarską przygodę rozpocząłem około piętnastu lat temu, początkowo w związku z recenzjami gier komputerowych i filmów. Obecnie publikuję zdecydowanie częściej na tematy związane z nauką oraz technologią. W wolnym czasie uwielbiam podróżować, śledzić kinowe i książkowe nowości, a także uprawiać oraz oglądać sport.