Zdolność dzisiejszych komputerów do rozwijania się dzięki technologii maszynowego uczenia sprawia, że bardzo trudno przewidzieć ich zachowanie – wskazuje Iyad Rahwan z Centrum Ludzi i Maszyn Instytutu Maxa Plancka.
Autorzy raportu wskazują, że już teraz istnieje bardzo wiele inteligentnych algorytmów, których działanie nie jest do końca zrozumiałe przez ich twórców. Raz uruchomiony algorytm cały czas uczy się i dąży do udoskonalenia swojego działania, często osiągając te cele w sposób nieprzewidziany przez jego ludzkich twórców.
Czytaj również: Stworzone przez sztuczną inteligencję układy znacząco przewyższają ludzkie
W czasach, w których technologia AI staje się coraz ważniejszym aspektem naszej codzienności. Korzystamy z algorytmów SI do tworzenia muzyki, projektowania nowych układów scalonych, prowadzenia rozmów rekrutacyjnych, i tysiąca innych czynności. Stąd też obawa, że prędzej czy później uda nam się stworzyć algorytm, którego nie tylko nie będziemy do końca rozumieć, ale nie będziemy też w stanie kontrolować
Sztuczna Superinteligencja poza kontrolą
Naukowcy z Instytutu Maxa Plancka sugerują, że reguły takie jak „nie wyrządzać krzywdy ludziom” nie mogą zostać ustalone dla superinteligentnych algorytmów, jeśli nie będziemy w stanie zrozumieć w pełni scenariuszy, które stworzą one podczas swojego rozwoju.
Superinteligencja stanowi fundamentalnie inny problem niż te, które są zwykle badane pod hasłem „etyki robotów” – czytamy w raporcie.
Zdaniem autorów, haczyk polega na tym, że kontrolowanie superinteligencji daleko wykraczającej poza ludzkie zrozumienie wymagałoby stworzenia symulacji tej superinteligencji, którą moglibyśmy analizować.
Czytaj również: Pentagon chce być o krok przed wrogiem. Wykorzysta do tego sztuczną inteligencję
Jeśli jednak nie jesteśmy w stanie pojąć, ani przewidzieć pełnego sposobu funkcjonowania tego typu algorytmów, stworzenie takiego modelu symulacji służącego do ich pośredniej kontroli jest po prostu niemożliwe.
Dzieje się tak, ponieważ superinteligencja jest wieloaspektowa, a zatem potencjalnie jest w stanie zmobilizować różnorodne zasoby, aby osiągnąć cele, które są potencjalnie niezrozumiałe dla ludzi, nie mówiąc już o jej kontrolowaniu – tłumaczą autorzy.
Naukowcy przyjrzeli się również tzw. problemowi stopu – koncepcji stworzonej przez brytyjskiego matematyka i ojca dzisiejszych komputerów,Alana Turinga. Problem dotyczy tego, czy dany algorytm zakończy kiedyś swoją pracę, czy też wpadając w nieskończoną pętlę, nie będzie w stanie się zatrzymać.
Turing dowiódł że, chociaż w przypadku niektórych konkretnych programów możemy przewidzieć, czy są one w stanie zatrzymać się, czy nie, to niemożliwym jest znalezienie sposobu, który pozwoli nam to przewidzieć dla każdego potencjalnego programu. To prowadzi nas z powrotem do sztucznej inteligencji, która w stanie superinteligentnym może (przynajmniej w teorii) przechowywać w swojej pamięci każdy możliwy program komputerowy.
Czytaj również: Sztuczna inteligencja niczego nie zapomina? Facebook twierdzi, że to już przeszłość
Tak więc każdy program napisany, aby powstrzymać sztuczną inteligencję przed szkodzeniem ludziom i niszczeniem świata, może dojść do wniosku (i zatrzymać się) lub nie – matematycznie niemożliwe jest, abyśmy byli w stanie przewidzieć jego zachowanie, co oznacza, że superinteligencji nie da się zabezpieczyć.
W efekcie taki algorytm jest bezużyteczny – mówi Iyad Rahwan z Instytutu Rozwoju Człowieka im. Maxa Plancka w Niemczech.
Autorzy twierdzą również, że zabezpieczenie takiego superalgorytmu w oparciu o trzy zasady Asimova, również może okazać się nieskuteczne. Nikt nie wie bowiem, jak bardziej zaawansowana od nas sztuczna inteligencja zinterpretuje te zasady.
Dlatego też autorzy kończą swój raport dość pesymistycznym wnioskiem: jeśli ludzkość jest w stanie funkcjonować bez sztucznej inteligencji to… z uwagi na wiele niebezpiecznych niewiadomych, nie powinniśmy rozwijać tego typu algorytmów. Przynajmniej dopóki nie znajdziemy skutecznych metod, które pozwolą nam na ich pełną kontrolę.