SI wynalazła ludobójstwo i wojnę

Naukowcy z Carnegie Mellon stworzyli symulację opartą na “dylemacie więźnia”, od lat znanym modelu teorii gier. Jak opisuje serwis Nautilus, wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.
SI wynalazła ludobójstwo i wojnę

Boty otrzymywały nagrodę, jeśli współpracowały, oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)

Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi wyzwaniami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje cię dobrze – odwdzięcz się. Jeśli ktoś cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny.

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny – żółty kolor (fot. Simon Dedeo)

Okazało się, że sztuczna inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła “botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię “wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.

Boty wypracowywały różne strategie, z których najbardziej efektywna była “wet za wet” (fot. Nicky Case)

Strategia stosowana przez sztuczną inteligencję przypomina zachowanie ludzi znane chociażby ze “Starego Testamentu”:

Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: “Pozwól mi przejść”, Gileadczycy zadawali pytanie: “Czy jesteś Efraimitą?” – A kiedy odpowiadał: “Nie”, wówczas nakazywali mu: “Wymówże więc Szibbolet”. Jeśli rzekł: “Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(“Księga Sędziów”, “Biblia Tysiąclecia”)

W wielu konfliktach zbrojnych to zachowanie powtarzało się. Podczas wojny domowej w Finlandii w 1918 roku Finowie rozpoznawali rosyjskich szpiegów przez to, że ci drudzy nie potrafili wymówić słowa “yksi”, co oznaczało “jeden”. Tego sposobu nauczyła się również w wirtualnym świecie sztuczna inteligencja.

Na czym opiera się “dylemat więźnia” możecie sprawdzić w przeglądarkowej grze “Ewolucja zaufania” (“Evolution of trust”) autorstwa Nicky’ego Case’a. Aplikacja dostępna jest również w języku polskim. | CHIP