Konkluzja jest następująca: sztuczna inteligencja może stanowić egzystencjalne zagrożenie dla ludzkości. Wszystko przez tzw. generatywne sieci przeciwstawne, znane jako GAN. To właśnie one napędzają obecny rozwój sztucznej inteligencji i funkcjonują w ramach dwóch kryteriów: jedna część próbuje wygenerować obraz z danych wejściowych, natomiast druga ocenia jego działanie.
Czytaj też: Robot uspokaja: nie ma powodów do obaw, a maszyny nigdy nie przejmą władzy nad światem
W związku z tym eksperci przewidują, że odpowiednio zaawansowana sztuczna inteligencja mogłaby wymyślić strategie mające na celu oszukiwanie swoich “panów”. W efekcie mogłaby jeszcze skuteczniej osiągać swoje cele, szkodząc przy tym ludziom. Jak wyjaśnia Michael Cohen z Uniwersytetu Oksfordzkiego, w świecie z nieskończonymi zasobami nie byłoby to raczej problemem, jednak nasz taki nie jest, co oznacza, iż istnieją powody do obaw.
Sztuczna inteligencja wykorzystuje obecnie tzw. generatywne sieci przeciwstawne
Takim wysoce pożądanym przez maszyny zasobem byłaby rzecz jasna zasilająca je energia. Przykłady? Sztuczna inteligencja odpowiedzialna za produkcję żywności mogłaby chcieć znaleźć sposób, aby uniknąć wykonywania tej czynności, od razu przechodząc do otrzymania nagrody. Ostatecznie mogłaby całkowicie porzucić zlecone jej zadania, które mogłyby okazać się niezbędne do przetrwania ludzkości.
W związku z tym Cohen podkreśla, iż z pespektywy ludzi dobrze byłoby upewnić się, że nie powstanie oprogramowanie, które mogłoby zagrozić naszej pozycji na szczycie. Z drugiej strony, nie sposób nie zauważyć wymiernych korzyści, jakie odnosimy za sprawą udziału sztucznej inteligencji w codziennym życiu. Napędzane algorytmami maszyny wyręczają ludzi w licznych zajęciach, które przez setki lat musiały być wykonywane ręcznie. W wielu dziedzinach sztuczna inteligencja wyprzedza nas też szybkością działania, zarówno pod względem manualnym, jak i obliczeniowym.
Czytaj też: Zaawansowane chipy ze sztuczną inteligencją nie dla Chin. USA chce zablokować eksport
W teorii nie ma sensu ścigać się do tego celu. Każdy wyścig opierałby się na nieporozumieniu, że wiemy jak to [sztuczną inteligencję, przyp. red.] kontrolować. Biorąc pod uwagę nasze obecne zrozumienie, nie jest to przydatna rzecz do rozwoju, chyba że wykonamy teraz jakąś poważną pracę, aby dowiedzieć się, jak byśmy mogli ją kontrolować. wyjaśnia Cohen