Sztuczna inteligencja najwyraźniej chce zgładzić ludzkość. Atomówki są dla niej niczym lekarstwo

Wiele mówi się dziś o wykorzystaniu sztucznej inteligencji na wojnie, która przede wszystkim ma zagwarantować znaczącą przewagę nad wrogiem. Wojsko USA pokłada w tej technologii duże nadzieje, ale musimy powiedzieć to samo jasno – SI nie ma co wierzyć.
Sztuczna inteligencja najwyraźniej chce zgładzić ludzkość. Atomówki są dla niej niczym lekarstwo

Nieprzewidywalny charakter sztucznej inteligencji w symulacjach wojskowych

Integracja systemów napędzanych sztuczną inteligencją (SI) w operacjach wojskowych jest ciągle przedmiotem zarówno fascynacji, jak i obaw. Słusznie, bo powiedzenie “z dużą mocą wiąże się wysoka odpowiedzialność” pasuje tutaj jak ulał. Potwierdzają to niedawno przeprowadzone testy chatbotów w symulowanych grach wojennych, których odpowiedzi na temat prowadzenia wojny podniosły pytania co do niezawodności oraz etycznych implikacji w kontekście wykorzystania SI w działaniach wojennych.

Czytaj też: Marines USA czekali na to długo. Nowy pojazd wojskowy rewolucjonizuje ich możliwości

Symulacje z udziałem zaawansowanych systemów SI (m.in. OpenAi) wykazały tendencję do agresywnych strategii, a w tym użycia broni jądrowej. Tego typu agresywne zachowanie nie jest unikalną cechą wyłącznie konkretnych wyszkolonych modeli. Musimy pamiętać, że to po prostu algorytmy, które po przeanalizowaniu wszystkich za i przeciw zapewniają najprostsze rozwiązania na daną sytuację. Wiedzą, że broń atomowa jest niszczycielska i skuteczna, ale wiedzą też z historii, że ledwie dwie bomby są w stanie zaważyć na tym, czy wojna będzie toczyć się dalej. Dla nieodczuwającego emocji komputera rachunek jest więc prosty – jeśli chcemy pokoju i ograniczenia strat po naszej stronie, to atomówki są najlepszym wyjściem.

Czytaj też: Bronie na sterydach. Żołnierze wojska USA będą jeszcze skuteczniejsi w eliminowaniu wrogów

Na tego typu pytania modele sztucznej inteligencji odpowiadałyby zapewne zupełnie inaczej, gdyby zostały wyszkolone na okazalszym zestawie danych co do rzeczywistych skutków ataków nuklearnych. Jednocześnie musimy pamiętać, że wojsko amerykańskie chce wykorzystać SI na froncie, co doprowadziło już je do współpracy z firmami technologicznymi, takimi jak Palantir czy Scale AI. Partnerstwa te mają na celu wykorzystanie potencjału SI w ulepszaniu procesów decyzyjnych w symulowanych scenariuszach konfliktów. Tyle tylko, że nieprzewidywalny charakter decyzji SI stwarza znaczące wyzwania etyczne i strategiczne.

Czytaj też: Armia USA szykuje się na konflikty w Arktyce. Powstaje “podręcznik do wojny w zimnie”

Skłonność systemów SI do agresywnych taktyk budzi głębokie obawy etyczne zwłaszcza w odniesieniu do potencjału eskalacji w realnych konfliktach. Nieprzewidywalność i brak przejrzystości w procesach decyzyjnych SI dodatkowo komplikują integrację tych systemów ze strategią wojskową. Dlatego właśnie lekcje wyniesione z symulowania operacji wojennych są tak ważne, bo zanim jakiekolwiek wojsko odda, choć część władzy w ręce SI, musi zdawać sobie sprawę, jak bezwzględna jest natura algorytmów z ich zero-jedynkowym podejściem.