Debata wciąż trwa: czy sztuczna inteligencja zyska samoświadomość?
Wygląda na to, że nie musimy się nad tym dłużej głowić, ponieważ naukowcy związani z Google DeepMind opublikowali pracę, która uderza w sam fundament tej wizji. Artykuł, o którym mowa, sugeruje, jakoby współczesna sztuczna inteligencja mogła jedynie udawać świadomość, a zarazem nigdy realnie jej nie posiąść.
Czytaj też: Zrobili darmowe narzędzie, które zawstydza całą branżę. Sztuczna inteligencja może być “dobra”
Autorem tej publikacji jest Alexander Lerchner, filozof i badacz związany z DeepMind. Według niego obecna debata o świadomej AI opiera się na błędnym założeniu, które określa mianem błędu abstrakcji. Chodzi o przekonanie, że jeśli system komputerowy zachowuje się podobnie do człowieka i przetwarza informacje w złożony sposób, to musi istnieć możliwość pojawienia się świadomości niezależnie od fizycznego podłoża.
Lerchner uważa jednak, że to poważne nieporozumienie. W swojej pracy podkreśla: obliczenia wykonywane przez komputer są jedynie symbolicznym odwzorowaniem procesów, a nie samym doświadczeniem. Innymi słowy:, komputer może perfekcyjnie symulować emocje, introspekcję czy samoświadomość, ale nadal nie oznacza to, że cokolwiek naprawdę czuje.
Naukowcy związani z Google DeepMind porzucają nadzieje
Zgadzam się z porównaniem tej zależności do symulacji ognia w grze komputerowej. Ogień na ekranie wygląda realistycznie, reaguje na otoczenie i może nawet generować efekty świetlne, ale nigdy nie wytworzy prawdziwego ciepła. Według autorów publikacji podobnie działa współczesna AI: potrafi imitować świadomość, lecz nie posiada subiektywnego doświadczenia.
W ogólnym rozrachunku publikacja uderza w nurt zwany funkcjonalizmem obliczeniowym. To popularna teoria filozoficzna zakładająca, że świadomość wynika z odpowiednio złożonych procesów informacyjnych, niezależnie od tego, czy zachodzą one w ludzkim mózgu, biologicznym organizmie czy komputerze. Wielu zwolenników rozwoju AGI, czyli ogólnej sztucznej inteligencji uważało dotąd, iż wystarczająco zaawansowany model językowy może pewnego dnia “obudzić się” i uzyskać własne doświadczenia wewnętrzne.
Czytaj też: Sztuczna inteligencja w kuchni i warsztacie. Roboty wreszcie radzą sobie z krzywymi kształtami
Ale na podstawie rewelacji przedstawiciela DeepMind proponowałbym zupełnie inne spojrzenie. Zdaniem Lerchnera sama abstrakcyjna struktura obliczeń nie wystarcza do wygenerowania świadomości, ponieważ symbole i operacje matematyczne nie mają znaczenia same z siebie. Sens nadaje im dopiero obserwator, a więc człowiek interpretujący wyniki działania systemu. W takim ujęciu AI pozostaje niezwykle zaawansowanym narzędziem statystycznym, które przewiduje kolejne słowa i reakcje, ale nie posiada żadnego wewnętrznego świata I na tym możemy zakończyć dyskusję, choć jedno jest pewne: wraz z rozwojem AI pytanie o granice świadomości maszyn będzie wracać coraz częściej.
Źródło: Google DeepMind
