Maszyny coraz bliżej ludzi

Czy trzeba mieć świadomość, żeby być inteligentnym, oraz kiedy doczekamy się sprzętowych przystawek do mózgu? Czołowy polski specjalista od sztucznej inteligencji wyjaśnia niuanse budowy syntetycznych umysłów.

Profesora Włodzisława Ducha – specjalistę od sztucznej inteligencji – trudno zastać w Polsce. Choć jest pracownikiem toruńskiego uniwersytetu, to częściej można go spotkać na uczelniach japońskich, amerykańskich czy zachodnioeuropejskich. W przerwach między jego kolejnymi wojażami udało mi się jednak z nim porozmawiać.

Anna Meller: Jak powinna brzmieć definicja inteligencji oraz sztucznej inteligencji?
Włodzisław Duch:

Inteligencja jest zdolnością do rozwiązywania nietypowych problemów, zdolnością do wykorzystywania dostępnej wiedzy. Istnieje wiele problemów, dla których nie potrafimy podać ogólnego sposobu rozwiązania, np. jak wygrać z przeciwnikiem w walce ekonomicznej czy grze militarnej; jak zrozumieć sens zdania lub jak rozpoznać twarz na zdjęciu. Jest też cała grupa problemów, dla których znamy algorytm, ale jest on nieefektywny, tzn. w ciekawych przypadkach będzie wykonywał się do końca świata. Prostym przykładem może być układanie planu zajęć dużej szkoły lub dojazd najkrótszą droga do stu kiosków, do których trzeba dostarczyć gazety. Można więc powiedzieć, że sztuczna inteligencja zajmuje się rozwiązywaniem problemów, które nie są efektywnie algorytmizowalne.

AM: Czy inteligentna maszyna musi mieć samoświadomość? 
WD:

Jeśli świadomość ma oznaczać przytomność, a więc zdawanie sobie sprawy z tego, co się robi, to maszyna posiadająca wyspecjalizowaną inteligencję wcale jej mieć nie musi, a nawet by to jej przeszkadzało. Powszechnie sądzimy, że świadomość jest niezbędna do wykonywania złożonych zadań. Jeśli mamy na myśli skupienie i przytomność umysłu, to jest to oczywiście prawda – śpiąca osoba nie rozwiąże postawionego przed nią problemu. Psycholodzy poznawczy nie znaleźli jednak dowodu na udział świadomości jako czynnika odpowiedzialnego za myślenie. Przypisujemy sobie, tzn. swojemu „ja”, wszystko, co robi nasz mózg. Tymczasem jest odwrotnie: „ja” to jeden z wielu procesów realizowanych przez nasz mózg. Sądzę więc, że cały problem świadomości w AI jest nieporozumieniem. Robert Penrose twierdzi, że widzi świadomie rozwiązanie geometryczne, którego nie potrafi znaleźć program do dowodzenia twierdzeń. Nie wynika to jednak z udziału świadomości, tylko zupełnie innych metod reprezentacji, których używa mózg człowieka. Wzrok jest naszym głównym źródłem informacji, więc jesteśmy dobrzy w manipulowaniu reprezentacjami geometrycznymi. Program dowodzący twierdzenia nie ma takich możliwości, chyba że będzie podłączony do kamery i wyposażony w możliwości analizy informacji przestrzennej.

0
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.