Sztuczna inteligencja zwiększy ryzyko nuklearnej zagłady

Koncerny zbrojeniowe i rządy państw są bardzo zainteresowane “zatrudnieniem” SI w strukturach militarnych. Doskonale zobrazowała to Joanna Sosnowska w naszym tekście okładkowym. Jednak według najnowszego, dopiero co opublikowanego, raportu instytucji badawczej RAND Corporation, zagrożenia wynikające z wdrażania sztucznej inteligencji w armii są znacznie większe niż wyłącznie udzielenie robotom “licencji na zabijanie”. Autorzy raportu uważają, że użycie maszynowo uczonych algorytmów SI w systemach uzbrojenia może do 2040 roku poważnie zaburzyć system odstraszania nuklearnego.
Eksplozja nuklearna
Eksplozja nuklearna

Twórcy raportu nie twierdzą jednak, że czeka nas historia rodem z “Terminatora”. Według nich zagrożone jest nuklearne bezpieczeństwo świata, ponieważ SI może skutecznie zachęcać ludzi do podejmowania większego ryzyka. Autorzy raportu przypominają, że w czasach zimnej wojny zdolność do całkowitego zniszczenia – niezależnie od tego, która strona rozpocznie atak – zapewniła stan chwiejnego pokoju pomiędzy mocarstwami. Zarówno ZSRR, jak i Stany Zjednoczone były świadome, że jakikolwiek atak nuklearny spotka się z miażdżącym odwetem, w wyniku którego po wojnie totalnej nie będzie ani zwycięzców, ani pokonanych. Paradoksalnie – jak to nazywają autorzy raportu – “wzajemne, gwarantowane zniszczenie” – sprzyjało stabilności strategicznej, niwelując ewentualne zachęty do podejmowania działań, które mogłyby się przerodzić w wojnę nuklearną.

RAND Corporation
Przykład broni dającej przewagę strategiczną, gigantyczna torpeda z głowicą nuklearną i własnym reaktorem napędowym. Bardzo duża prędkość, globalny zasięg, wysoki stopień autonomi. (źr. RAND Corporation).

Najnowszy dokument opracowany przez RAND Corporation przedstawia sytuację, w której ta chwiejna równowaga zostaje zaburzona w wyniku przewagi technologicznej ,wynikającej z zastosowania SI. Edward Geist, współautor artykułu i współpracownik ds. polityki w RAND Corporation, twierdzi, że związek pomiędzy potencjalną wojną nuklearną a SI nie jest nowy. – Znaczna część wczesnego rozwoju sztucznej inteligencji to prace mające wesprzeć wojskowych. – pisze Geist. Naukowcy twierdzą, że naród który uzyska technologiczną przewagę, może ulec pokusie, by wykorzystywać potencjalną zdolność pierwszego uderzenia jako argumentu w negocjacjach, nawet jeżeli dany kraj faktycznie nie zamierzał zaatakować. Druga strona jednak w takiej sytuacji nie ma żadnej pewności co do zamiarów przeciwnika, wie natomiast, że ma on przewagę technologiczną. I może zechcieć uprzedzić atak.

Geist przypomniał przy okazji o tzw. eksperymencie SAPE (Survivable Adaptive Planning Experiment), który Stany Zjednoczone przeprowadziły już w latach 80. ubiegłego stulecia, a który polegał na wykorzystaniu SI do automatycznego przełożenia danych wywiadowczych na plany operacyjne dla systemów kierowania nuklearnego.

Zainteresowanych pełną treścią rzeczonego dokumentu odsyłam do źródła (plik PDF, język angielski). | CHIP