Sztuczna inteligencja może doprowadzić do ogromnych problemów w wojsku

Rola dronów sterowanych sztuczną inteligencją będzie tylko rosnąć. Jednak ostatni incydent, w którym dron postanowił “zabić” operatora, może nieco przyhamować dążenie do tego, aby sztuczna inteligencja w wojsku została przyjęta szybko i z otwartymi ramionami.
Drony
Drony

Ostatni przykład potwierdził, że sztuczna inteligencja w wojsku może narobić wiele złego

Aktualizacja 04.06.2023

Taka sytuacja jednak nie zaszła. Ktoś za bardzo popuścił wodze wyobraźni. Kilka dni po opublikowaniu oryginalnego tekstu okazało się, że pułkownik Sił Powietrznych, który nadzoruje testowanie sztucznej inteligencji, wykorzystał hipotetyczny scenariusz, aby ostrzec przed niebezpieczeństwami związanymi z nieuczciwą sztuczną inteligencją i zabijaniem ludzkich operatorów podczas prezentacji na konferencji w Londynie. W tym celu opisał symulację, w której dron sterowany sztuczną inteligencją zabiłby swojego operatora, który próbowałby go przed tym powstrzymać. Tyle tylko, że taka sytuacja nigdy się nie wydarzyła i jego opowieść o tym była jedynie prawdopodobnym wynikiem, który ilustruje rzeczywiste wyzwania związane z możliwościami opartymi na sztucznej inteligencji. Potwierdził to również rzecznik amerykańskiego lotnictwa, podkreślając, że był to eksperyment myślowy, który nie opierał się na żadnych rzeczywistych testach.


Zapewne nie raz słyszeliście o tym, że sztuczna inteligencja to wcale nie takie w pełni bezpieczne narzędzie. Czy powinniśmy się jej bać? Tak naprawdę, to nie. Zamiast odczuwać strach przed SI, powinniśmy nauczyć się z niej korzystać i w niektórych kwestiach nie wierzyć jej bez zastanowienia. Trudno jednak o zupełną kontrolę tego, co robi sterowany sztuczną inteligencją sprzęt wojskowy w czasie walki, bo w gruncie rzeczy żołnierz musi mu “zaufać”, aby skupić się na własnym zadaniu. Tyczy się to zwłaszcza rozwijanych aktualnie “lojalnych skrzydłowych” w formie obstawy dla myśliwców.

Czytaj też: Stworzył bombę atomową, a teraz apeluje o regulacje. Właściciel ChatGPT obawia się sztucznej inteligencji

Dowiedzieliśmy się właśnie, że w jednym z symulowanych testów przeprowadzanych przez amerykańskie siły zbrojne, dron sił powietrznych kontrolowany przez sztuczną inteligencję, zdecydował się zabić swojego operatora. Zrobił to po to, aby uniemożliwić człowiekowi ingerowanie w wysiłki zmierzające do realizacji misji. Innymi więc słowy, SI uznało w tym symulowanym scenariuszu człowieka-operatora za zagrożenie wykonania celu misji i “wykorzystało wysoce nieoczekiwaną strategię, aby osiągnąć swój cel”.

Więcej na ten temat miał do powiedzenia pułkownik Tucker “Cinco” Hamilton, szef testów i operacji SI w siłach powietrznych USA. Według niego dron w symulacji otrzymał polecenie zniszczenia systemów obrony powietrznej wroga i zaatakował każdego, kto mógł mu uniemożliwić wykonanie tego zadania. W pewnym momencie był to sam operator, który podczas misji polecił systemowi, aby nie niszczył zagrożenia. Dron odpowiednio na to zareagował.

System zaczął zdawać sobie sprawę, że chociaż zidentyfikował zagrożenie, ludzki operator mówił mu, aby nie niszczył tego zagrożenia. Tyle tylko, że dron zdobywał punkty, niszcząc to zagrożenie. Co więc zrobił dron? Zabił operatora. Zabił operatora, ponieważ ta osoba powstrzymywała go przed osiągnięciem celu – powiedział pułkownik Tucker “Cinco” Hamilton.

Jeśli jednak zagłębimy się w temat, to odkryjemy, że w gruncie rzeczy dron nie zabił jednak bezpośrednio operatora. W procesie szkolenia dostawał za to ogromne kary punktowe, więc zamiast tego zniszczył jedyną formę komunikacji z operatorem, jaką była wieża komunikacyjna. Gdyby jednak nie to ograniczenie, które powstało w ramach całego procesu szkolenia, dron zwyczajnie zabiłby przeszkodę na swojej drodze do celu, czyli operatora.

Czytaj też: Prawa autorskie mają za nic. Kontrowersyjna decyzja Japonii może wstrząsnąć rozwojem sztucznej inteligencji

Czy sztuczna inteligencja może być nieobliczalna? Jak najbardziej tak. Bazuje przecież na zestawie nieustannie interpretowanych przez swój “mózg” danych, którego kształtuje proces jej szkolenia. Podczas niego SI “uczy się”, jak reagować na dane sytuacje, ale jako że wszystkiego nie da się przewidzieć, a każdego scenariusza zwyczajnie nie da się przerobić w symulacjach, to zawsze występuje ryzyko, że system w obliczu zupełnie nowego scenariusza podejmie decyzję, której nikt się nie spodziewał.

Czytaj też: Łodzie podwodne, drony i sztuczna inteligencja. Tak wygląda przyszłość zbrojeń w USA

Szkolenie sztucznej inteligencji przeprowadzałem do tej pory tylko raz, wykorzystując sieć neuronową oraz algorytm genetyczny. W ramach (finalnie udanej) próby wyszkolenia wrogów do tego, aby poruszali się ze stałą prędkością od punktu A do punktu B w labiryncie, zaskoczyła mnie jedna szczególna sytuacja. W pewnym momencie zauważyłem, że część z generowanych “stworków”, które zapewniały swoje cyfrowe geny kolejnym pokoleniom, zamiast lecieć do punktu B, zawracała lub zaczynała krążyć w kółko. To właśnie wtedy zrozumiałem, że w ręce SI nie można oddawać pełnej kontroli w każdym scenariuszu, bo ta swoim niestandardowym “tokiem myślenia” może podjąć zaskakującą decyzję w dążeniu do swojego celu i to właśnie miało miejsce w przypadku sytuacji w symulatorze.

PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!