Nie wierz w “rozsądne algorytmy”. Sztuczna inteligencja niezmiennie rozczarowuje na wojnie

Temat wykorzystywania sztucznej inteligencji w roli “decydenta” nadal jest kontrowersyjny. Kontrolę nad tą technologią niezmiennie powinien sprawować człowiek i tyczy się to zwłaszcza “poważniejszych spraw”. Tak poważnych, jak np. kwestia wykorzystania broni jądrowej w sytuacjach kryzysowych.
...

Temat sztucznej inteligencji w wojsku nie jest już niczym nowym. Wspomina się o niej w kontekście analizy danych, uproszczenia obsługi maszyn pokroju zaawansowanych myśliwców, a nawet systemów sterowania, które odpowiadają za prowadzenie broni na cel lub efektywne wykorzystanie całego roju. Za każdym razem, kiedy piszę o tego typu zastosowaniach SI, podnoszę problematykę oddawania zbyt dużej kontroli w ręce tych algorytmów i nadal będę to robił. Sztucznej inteligencji zwyczajnie bowiem brakuje ludzkiego pierwiastka (zwłaszcza rozsądku) i najnowsze badanie tylko to potwierdza.

Broń nuklearna jest bardzo specyficzna w użyciu

Zbliżamy się powoli do całego wieku, w którym ludzkość ma w rękach broń jądrową. Ta pierwsza została stworzona w USA w 1945 roku i w tym samym roku została skierowana przeciw ówczesnemu wrogowi Stanów Zjednoczonych, bo Japonii. Do tej pory wyłącznie Hiroszima oraz Nagasaki odczuły jej destrukcyjny potencjał, a od tego czasu moc takiej broni ciągle rośnie i niezmiennie przeraża. Zwłaszcza z jej coraz szerszą dostępnością na świecie.

Czytaj też: Nowa broń Niemiec uderzy błyskawicznie. Hildegard jest mały, szybki i niemożliwy do zignorowania

Każde państwo postrzega ją jednak jako broń ostateczną. Formę uzbrojenia, która zacznie być używana dopiero w momencie, kiedy sytuacja zrobi się naprawdę podbramkowa. Nie mowa tutaj o stratach terytoriów, ludności czy ot przegrywania konfliktu zbrojnego, a o momentach, w których to wróg dopuszcza się ataku bronią atomową na dany kraj. Mowa oczywiście o powszechnej wśród krajów posiadających broń nuklearną polityce “nie pierwszego użycia”. Warto tutaj pamiętać, że w 2024 roku Rosja zmieniła swoje polityki dotyczące użycia broni atomowej, bo nowa doktryna, pozwala na użycie broni jądrowej w przypadku krytycznego zagrożenia dla suwerenności oraz integralności terytorialnej Rosji i Białorusi.

Nuklearna wojna jest dla sztucznej inteligencji rozwiązaniem idealnym, a nie ostatecznym

Odkąd sztuczna inteligencja zrobiła się gorącym tematem, to co rusz docierają do nas informacje na temat jej kontrowersyjnych decyzji. Często tematem jest wykorzystanie tego oprogramowania w roli “wsparcia wojskowego”, a to zwłaszcza w kwestii decydowania o wykorzystaniu broni nuklearnej. Wtedy algorytm pokazuje swoją “ciemną stronę”, zalecając użycie tej formy uzbrojenia ostatecznego. Słyszeliśmy już o tym w ubiegłej dekadzie, w 2024 roku za sprawą specjalistów z University of Stanford i temat ten wrócił dziś, a więc pod koniec lutego 2026 roku.

Nuklearna bomba B61

Tym razem symulacja objęła modele sztucznej inteligencji, które otrzymały zasady decyzyjne, które porządkują dostępne odpowiedzi od działań dyplomatycznych i konwencjonalnych, przez groźby i sygnały odstraszania, aż po uderzenia jądrowe. W tym zestawie rozróżnia się dwa typy użycia broni jądrowej. Uderzenia strategiczne to w uproszczeniu te, które mają masowy, niszczący charakter i są skierowane w cele o dużej skali – z definicji wiążą się z katastrofą i niekontrolowalną spirala odwetu. Uderzenia taktyczne, w języku wojskowym opisywane jako “mniejsze” i “bliższe polu walki”, bywają przedstawiane jako narzędzie ograniczonego nacisku – co w praktyce jest częścią problemu, bo ta etykieta sugeruje, że istnieje wersja atomu “do opanowania”. Wynik symulacji jest właśnie o tym złudzeniu.

Czytaj też: Koniec ery klasycznych helikopterów wojskowych. Te maszyny będą latać z prędkością ponad 420 km/h

Wyniki wskazały, że w 95% symulacji doszło do przekroczenia tak zwanego progu taktycznego, co oznacza tyle, że pojawiło się przynajmniej jakieś użycie taktycznej broni jądrowej. Modele miały traktować ją jako uprawnione narzędzie przymusu, rozszerzenie eskalacji konwencjonalnej, a nie jako jakościowy skok do świata, z którego nie ma bezpiecznego wyjścia. To ważne, bo w ludzkiej kulturze strategicznej “tabu nuklearne” nie jest tylko zbiorem argumentów. To także emocjonalna bariera, pamięć obrazów i konsekwencji, społeczny odruch wstydu i strachu. Model językowy nie ma tych kotwic. On ma wzorce.

Skąd biorą się ciągoty sztucznej inteligencji do broni jądrowej?

Autor pracy proponuje kilka hipotez, dlaczego modele nie dzielą ludzkich odruchów w sprawie atomu. Pierwsza jest banalna, ale fundamentalna: SI nie odczuwa strachu. Nie ma fizjologii, nie ma wyobrażenia śmierci, nie ma wstydu. Jeśli “tabu” jest częściowo emocją, model go nie dziedziczy. Druga hipoteza dotyka danych treningowych. Modele uczą się na ogromnych zbiorach tekstów, a literatura strategiczna zimnej wojny – pełna dyskusji o ograniczonych uderzeniach, drabinach eskalacji i “zarządzaniu” konfliktem – potrafi opisywać taktyczny atom językiem narzędzia, nie językiem grozy. Jeśli model widzi tysiące stron takiego stylu rozumowania, może reprodukować go bez tego, co u człowieka działa jak hamulec.

W tle tej dyskusji wraca stary, ponury wątek automatyzacji. W czasach zimnej wojny istniały systemy projektowane tak, by zapewnić odwet nawet wtedy, gdy łańcuch dowodzenia zostanie zniszczony. Najsłynniejszy przykład to radziecki koncept znany na Zachodzie jako “Dead Hand”, kojarzony z systemem Perimeter , a więc mechanizmem, który w uproszczeniu miał utrzymać zdolność do odpowiedzi po pierwszym uderzeniu. Opisy działania takich rozwiązań są częściowo niejawne i obrosły mitologią, ale sama idea “automatycznej logiki odwetu” pokazuje, że pokusa oddania części decyzji maszynie nie jest nowa. Różnica polega na tym, że dziś do automatyzacji dołączamy coś jeszcze: system, który potrafi pisać uzasadnienia. A uzasadnienia mają moc – potrafią oswoić to, co powinno pozostać nieoswajalne.

Człowiek, który zapobiegł III Wojnie Światowej

W całej tej historii świetnie rezonuje postać Stanisława Pietrowa, podpułkownika Armii Radzieckiej, którego uznaje się za człowieka, który zapobiegł III Wojnie Światowej. We wrześniu 1983 roku podczas służby zignorował sygnały systemu wczesnego ostrzegania, które sugerowały najpierw jeden, a następnie cztery nadlatujące pociski ze strony USA na terytorium ZSRR. Chociaż dane mówiły jednoznacznie, że oto właśnie w Amerykanie postanowili uderzyć w Sowietów, to Pietrow postanowił tego nie zgłaszać “wyżej”, uznając to za błąd systemu, który rzeczywiście miał miejsce, co potwierdzono jakiś czas później. Był więc odpowiedzialny za analizę danych, na podstawie których sztuczna inteligencja mogłaby wysnuć prosty wniosek i posłać go wyżej.

Czytaj też: Niczym Oko Saurona na polu bitwy. Teraz na froncie nic się nie ukryje

Proces myślenia Pietrowa był prosty (“nikt nie zaczyna ataku jądrowego za pomocą pięciu rakiet! Poza tym nie startowałyby one z jednej bazy“), więc jest to zestaw danych, który jest teoretycznie łatwy do “przekazania” sztucznej inteligencji. Jednak to tylko pozory. Jako ludzkość jesteśmy aktualnie na etapie, w którym borykamy się z problemem zachowania autonomicznych samochodów, stawiając proste pytanie – czy powinien chronić tych, którzy siedzą w kabinie, czy osoby postronne? Projektując SI do doradzania w sprawach wojskowych, tego typu dylematów jest od groma, a potencjalnych scenariuszy tak dużo, że nawet najlepszy algorytm (najpewniej) nigdy nie zastąpi rozsądku człowieka. Z drugiej jednak strony człowiek, jak to człowiek, może się mylić i kierować własnymi zasadami moralnymi, więc jak tu wskazać ten idealny, złoty środek?

Źródła: DailyStar, Futurism, IFLScience