Chiny nie odbiorą swoim systemom SI licencji na zabijanie

Władze Chińskiej Republiki Ludowej opublikowały właśnie swoje oficjalne stanowisko w sprawie wykorzystania algorytmów sztucznej inteligencji w swoich systemach uzbrojenia. W skrócie brzmi ono następująco: nie mamy problemu z tym, że SI kogoś zabije.
chiny-bron-autonomiczna

chiny-bron-autonomiczna

Oświadczenia tego typu nadal brzmią, jakby zostały wyjęte z jakiegoś filmu science-fiction. W rzeczywistości jednak zasady dotyczące wykorzystania sztucznej inteligencji w systemach uzbrojenia to kwestia, która już teraz wymaga regulacji.

Aktualnie widzimy dwa podejścia: Stany Zjednoczone i Chiny nie widzą potrzeby wprowadzania ograniczeń, jeśli chodzi o użycie broni autonomicznej; zupełnie odmienne stanowisko prezentuje Organizacja Narodów Zjednoczonych, która w grudniu ponownie wezwała swoje państwa członkowskie do wprowadzenia przepisów zapobiegających samodzielnemu wyszukiwaniu i niszczeniu celów przez SI.

Broń autonomiczna: punkt widzenia zależy od punktu siedzenia

Wiem, jest to trochę banalne stwierdzenie, ale doskonale opisuje aktualne podejście do autonomicznej broni. Tajemnicą Poliszynela jest bowiem to, że najbardziej rozwiniętymi technologiami, jeśli chodzi o bojowe systemy sterowane przez algorytmy sztucznej inteligencji dysponują obecnie Stany Zjednoczone i Chiny. Oba te mocarstwa uważają zgodnie, że tego typu systemy dają ogromną przewagę na polu bitwy, chociażby przez brak opóźnień podczas podejmowania decyzji dot. zniszczenia danego celu.

Pułkownik Yuan-Chou Jin, profesor nadzwyczajny w Graduate Institute of China Military Affairs Studies i były dyrektor Departamentu Wywiadu Komendy Głównej Armii, z typowym chińskim brakiem wyczucia w kwestiach historycznych, porównuje wykorzystanie autonomicznych systemów uzbrojenia do taktyki Blitzkriegu wykorzystywanej przez faszystowskie Niemcy podczas II WŚ:

Dzięki taktyce Blitzkriegu, Wehrmacht był w stanie wygrywać bitwy w oparciu o swoją przewagę w szybkości podejmowanych działań. W chińskich sztukach walki dość popularnym powiedzeniem, które oznacza mniej więcej to samo jest: nie ma obrony nie do pokonania, oprócz szybkości. To właśnie szybkość podejmowanych działań jest krytycznym czynnikiem, który determinuje wynik walki.I tak samo jest w przypadku wykorzystania sztucznej inteligencji. Jej zdolność do szybkiego podejmowania decyzji nadaje się doskonale do zastosowania we wszelkiego rodzaju taktykach błyskawicznych.

Stany Zjednoczone nie pokusiły się o tak rozbudowane uzasadnienie. Administracja Bidena w bardzo oszczędnym oświadczeniu stwierdziła po prostu, że Stany Zjednoczone nie podpiszą żadnych wiążących deklaracji w sprawie wykorzystania swoich autonomicznych systemów uzbrojenia.

Czytaj również: Czy sztuczna inteligencja może likwidować ludzkie cele? ONZ wkrótce odpowie na to pytanie

Zupełnie inne podejście do autonomicznej broni możemy zaobserwować na forum ONZ, na którym od kilku lat rozmawia się o stworzeniu jakiegoś rodzaju prawnych ograniczeń, które regulowałyby wykorzystanie sztucznej inteligencji.

Niektóre kraje członkowskie, na przykład Austria, domagają się jeszcze bardziej ekstremalnego podejścia – tj. chcą całkowitego zakazu wykorzystania tzw. „robotów-zabójców” argumentując to tym, że sztuczna inteligencja nie jest nieomylna, nie potrafi odróżnić żołnierzy od cywilów i że prędzej, czy później takie autonomiczne systemy mogą wpaść w ręce przestępców i organizacji terrorystycznych.

Wszystkie te argumenty są oczywiście prawdziwe. Co nie zmienia jednak faktu, że żadne inne państwo członkowskie ONZ poza Stanami Zjednoczonymi nie dysponuje obecnie na tyle rozbudowanymi systemami broni autonomicznej, żeby zastąpić nimi żywych żołnierzy na polu bitwy. Stąd prawdopodobnie ta różnica w podejściu.