OpenAI nawiązuje współpracę z Pentagonem. Sztuczna inteligencja rusza na wojnę?

Dzisiaj pojawiła się informacja, że OpenAI nawiązało współpracę z amerykańskim Departamentem Obrony (DOD). Co ciekawe, stało się to kilka dni po tym, gdy zmieniono warunki świadczenia usług, a konkretnie – usunięto z nich zapis mówiący o… zakazie używania SI do aplikacji powiązanych z wojskiem.
OpenAI
OpenAI

Pojawienie się sztucznej inteligencji wywołało mnóstwo obaw co do bezpieczeństwa ludzkości. OpenAI miał jeszcze do niedawna zapis wykluczający użycie stworzonych przez siebie rozwiązań – flagowe to oczywiście ChatGPT – w celach militarnych. Jednak po jego usunięciu natychmiast ogłoszono rozpoczęcie kooperacji z rządowymi organizacjami wojskowymi.

OpenAI, DARPA i DOD rozpoczynają współpracę. Jej cel?

Co sprawiło, że OpenAI zdecydowało się na wspólne działania z Departamentem oraz DARPA (Defense Advanced Research Projects Agency)? Do niedawna twórcy ChatGPT jak ognia unikali dopuszczenia swoich rozwiązań na polu wojskowości. Pod koniec ubiegłego roku DARPA ogłosiła AI Cyber Challenge (AIxCC). Jest to szeroko zakrojony projekt, który ma na celu zapewnienie bezpieczeństwa cybernetycznego USA. Biorą w nim udział m.in. firmy zajmujące się rozwojem SI. Na ich liście widzimy takie nazwy, jak Google czy Microsoft. A ponieważ to właśnie producent Windowsa stoi za OpenAI…

Poprzedni zapis w warunkach użytkowania był bardzo restrykcyjny i konkretnie wskazywał, że SI nie może być używane do zastosowań militarnych oraz wojskowych, co dotyczyło m.in. projektowania nowych broni oraz sposobów na ranienie istot żywych. Teraz zapis ten został zmieniony – usunięto “zastosowania militarne oraz wojskowe”, pozostawiając pozostałe. W ten sposób OpenAI zyskało furtkę do współpracy z DOD i DARPA. Jak jednak podaje, zaangażowanie SI ma odbywać się na takich polach jak np. “zapobieganie samobójstwom weteranów”

Czytaj też: ChatGPT nie szanuje prywatności użytkowników? Do UODO wpłynęła oficjalna skarga przeciwko OpenAI

Niko Felix, rzecznik OpenAI, uspokaja, że sztuczna inteligencja nie będzie na pewno wykorzystana do takich celów, jak kierowanie dronami, rakietami czy identyfikacji celów naziemnych przez wojsko. Jej wykorzystanie ma odbywać się na obszarach wsparcia i pomocy oraz zapewnianiu cyberbezpieczeństwa w skali krajowej. Cały czas mottem pozostaje: “nie rań innych” i to ma nigdy się nie zmienić. Zapewnia również, że działania OpenAI na polu wojskowym będą zawsze jawne i przejrzyste.

Jak jednak zauważają eksperci, zmiana warunków użytkowania pozostawia szerokie pole do działania oraz interpretacji. Na przykład sztuczna inteligencja może zostać użyta do wspierania infrastruktur operacyjnych – w takim przypadku zapewnia warunki do używania broni, nie mając zarazem z nią kontaktu. Dlatego czy oficjalnie czy nie, ChatGPT oraz inne modele SI mogą być używane do prowadzenia i wspierania operacji militarnych.