SI wynalazła ludobójstwo i wojnę

Fot. Warner Bros.
Boty w wirtualnym społeczeństwie zaczęły urządzać czystki etniczne i toczyć bratobójcze wojny. Ich zachowanie przypomina historię ludzkości.

Naukowcy z Carnegie Mellon stworzyli symulację opartą na „dylemacie więźnia”, od lat znanym modelu teorii gier. Jak opisuje serwis Nautilus, wirtualne boty żyły w wyimaginowanym społeczeństwie i komunikowały się ze sobą. Mogły albo współpracować, albo oszukiwać. Współpraca dawała korzyść obu stronom, jednak jeśli któremuś agentowi udało się oszukać oponenta – zyskiwał zdecydowanie więcej. Najbardziej skuteczne jednostki kopiowano i przechodziły do kolejnej tury. Wprowadzono też niewielką możliwość pomyłki.

Boty otrzymywały nagrodę, jeśli współpracowały, oraz jeśli udawało im się oszukać przeciwnika (fot. Nicky Case)

Model ma zastosowanie w codziennym życiu. Podobnie zachowują się ludzie, kiedy stają przed dylematem, czy chcą przystąpić do strajku, wziąć udział w zmowie cenowej, albo zaangażować się w pracę nad różnymi projektami. Wirtualne maszyny stawały przed podobnymi wyzwaniami.

Badacze spodziewali się zaobserwować najlepszą strategię: wet za wet. Polega ona na kopiowaniu zachowań przeciwnika. Jeśli ktoś traktuje cię dobrze – odwdzięcz się. Jeśli ktoś cię oszuka – oszukaj i jego. Ten sposób zachowania faktycznie dominował w wirtualnej społeczności botów. Jednak po kilkuset generacjach, ku zaskoczeniu naukowców, maszyny przestawały współpracować i zaczynały toczyć między sobą cykliczne wojny.

Po kilkuset turach pojawiał się zaznaczony na zielono czas pokoju, a zaraz potem wyniszczające wojny – żółty kolor (fot. Simon Dedeo)

Okazało się, że sztuczna inteligencja rozpoznawała swoje własne idealne kopie, traktując każde odstępstwo jako przyczynek do ataku. W ten sposób SI wynalazła „botobójstwo” i wyniszczającą wojnę, w której ginęły również te maszyny, które stosowały najbardziej optymalną strategię „wet za wet”. Po tym okresie pozostawało kilka maszyn, które zaczynały ze sobą współpracować przez kolejne kilkaset pokoleń, aż w końcu losowe błędy osiągały poziom krytyczny co znowu doprowadzało do wszczęcia bratobójczych walk.

Boty wypracowywały różne strategie, z których najbardziej efektywna była „wet za wet” (fot. Nicky Case)

Strategia stosowana przez sztuczną inteligencję przypomina zachowanie ludzi znane chociażby ze „Starego Testamentu”:

Następnie Gileadczycy odcięli Efraimitom drogę do brodów Jordanu, a gdy zbiegowie z Efraima mówili: „Pozwól mi przejść”, Gileadczycy zadawali pytanie: „Czy jesteś Efraimitą?” – A kiedy odpowiadał: „Nie”, wówczas nakazywali mu: „Wymówże więc Szibbolet”. Jeśli rzekł: „Sibbolet” – a inaczej nie mógł wymówić – chwytali go i zabijali u brodu Jordanu. Tak zginęło przy tej sposobności czterdzieści dwa tysiące Efraimitów.
(„Księga Sędziów”, „Biblia Tysiąclecia”)

W wielu konfliktach zbrojnych to zachowanie powtarzało się. Podczas wojny domowej w Finlandii w 1918 roku Finowie rozpoznawali rosyjskich szpiegów przez to, że ci drudzy nie potrafili wymówić słowa „yksi”, co oznaczało „jeden”. Tego sposobu nauczyła się również w wirtualnym świecie sztuczna inteligencja.

Na czym opiera się „dylemat więźnia” możecie sprawdzić w przeglądarkowej grze „Ewolucja zaufania” („Evolution of trust”) autorstwa Nicky’ego Case’a. Aplikacja dostępna jest również w języku polskim. | CHIP

Źródło: Nautilus