Metaliczny robot na czterech nogach z obrotowym karabinem na górze.

Roboty, które będą zabijały ludzi

Fot. Piotr Sokołowski
Broń, która prowadzi wojnę przy minimalnym udziale człowieka, a nawet całkiem samodzielnie, to marzenie każdego departamentu obrony. Ale czy SI w militariach na pewno pozwoli nam uniknąć niepotrzebnych ofiar?

Wyżej, szybciej, dalej

Przygoda Boston Dynamics trwa nadal. Obecnie firma znajduje się w rękach japońskiej  firmy technologicznej SoftBank i wciąż rozwija swoje roboty. Cheetah biega szybciej, niż Usain Bolt. Humanoidalny Atlas potrafi przeskakiwać różnej wielkości przeszkody (także do tyłu). SpotMini (ewolucyjna forma Big Doga) potrafi otwierać drzwi nawet, gdy przeszkadza jej w tym człowiek. Obejrzenie zaledwie kilku filmów z robotami Boston Dynamics z jednej strony wywołuje efekt „wow”, a z drugiej każe się zastanowić, czy faktycznie ich przeznaczeniem będą prace domowe. Bo na pierwszy rzut oka wydaje się, że widzimy prototypy żołnierzy przyszłości – takich, którzy nigdy się nie męczą, którym niestraszne przeszkody, którzy będą dążyć do osiągnięcia zaprogramowanego celu bez względu na przeszkody (tak, jak SpotMini dąży do otwarcia drzwi mimo przeszkadzającego człowieka).

Czarny scenariusz

Inteligentne i autonomiczne drony czy roboty z ponadludzkimi (a w zasadzie nieludzkimi) zdolnościami wydają się znakomitą bronią. Przynajmniej, dopóki znajdują się w rękach “naszych”, a nie “ich” (kimkolwiek “oni” by nie byli). A przecież można wyobrazić sobie scenariusz, w którym do danego państwa (Polski, USA, innego) w kontenerze wysyłany jest rój takich uzbrojonych, autonomicznych dronów. Przepływ ludzi jest kontrolowany dużo bardziej rygorystycznie, niż przepływ towarów. Co, jeśli w jakimś chorym umyśle pojawi się pomysł wypuszczenia takiej zaprogramowanej w jednym celu chmury dronów w zatłoczonym miejscu publicznym w jednym z europejskich miast? Straty mogłyby być większe, niż w przypadku ataków terrorystycznych z wykorzystaniem porwanej ciężarówki.

Stare vs nowe

Amerykanie mają zamiar przenieść całe rozpoznanie strategiczne, operacyjne i taktyczne z kosmosu do przestrzeni atmosferycznej i zbudować roje dronów unoszących się na stałe na całym globie – mówił w 2015 roku Jacek Bartosiak, ekspert Narodowego Centrum Studiów Strategicznych. – To będą drony rozpoznawcze i bojowe, które w czasie rzeczywistym będą widziały wszystko i przekazywały informacje do USA. Roje będą zastępowalne. Przeciwnik zestrzeli 68, a system się zrekonstruuje. W tej chwili łatwiej jest zestrzelić satelitę, niż go wynieść i nie bardzo jest jak go bronić. Drony będą też miały zastosowanie cywilne np. mogą zastępować ratowników na plażach. 

Bartosiak jest ekspertem ds. geopolityki, nowoczesnej sztuki wojennej i dyrektorem Programu Gier Wojennych i Symulacji w Fundacji Pułaskiego. Na strategii wojennej zna się jak mało kto w naszym kraju. I w jednym ze swoich wykładów wskazuje jedną poważną wadę dronów (także autonomicznych) – zagłuszanie. Jak każde urządzenie elektroniczne, drony mogą zostać zdalnie spacyfikowane, i to bez oddania ani jednego strzału. Wystarczy zagłuszać je na wybranej częstotliwości – to już się dzieje w wybranych miejscach, np. na niektórych lotniskach, w okolicach budynków rządowych czy służb specjalnych.

Gdyby zastosować zagłuszanie na większą skalę, to okaże się, że wracamy do Wojny 1.0, w której najważniejsze jest ciężkie uzbrojenie, wyrzutnie rakiet i czołgi.

Kto siedzi na krzesłach

Sztuczna inteligencja może przetwarzać informacje szybciej niż człowiek. Ale o ile obliczenia matematyczne nie sprawiają jej problemów, to czynności typowo ludzkie już tak. Emmanuel Mogenet, szef Google Research w Zurychu, opowiadał kiedyś, jak trudno jest nauczyć komputer rozpoznawania tego, co w świecie jest możliwe. Tego, co dla ludzi jest oczywiste (chodzenie, siedzenie na krzesłach, rozpoznawanie twarzy), komputery uczone są w pocie czoła i znoju. Jest to możliwe i w małym stopniu już się udaje, ale na razie nie wiadomo, jak w istocie postrzegają świat sieci neuronowe, na których odbywają się takie obliczenia.

Nie potrafimy nauczyć maszyn wyciągania części wspólnych, esencji. To zupełnie coś innego niż reprezentacje, które ty albo ja mamy w umyśle. Komputery znajdują sposoby na tłumaczenie sobie świata, które mogą nie przystawać do rzeczywistości. Sposób, w jaki komputer uczy się i wyciąga wnioski (…) jest zupełnie inny od naszego. Trudno nam zrozumieć, co dzieje się w głębi sieci neuronowych. Jej działanie w niczym nie przypomina działania ludzkiego mózgu – opowiadał Mogenet.

Prawdopodobnie łatwiej byłoby stworzyć system wzajemnej komunikacji dronów, w którym urządzenia wymieniałyby informacje tylko między sobą. Obecnie, drony muszą człowiekowi „tłumaczyć” co widzą i jakie działania “sugerują”. Ale gdyby powstał taki system, to byłby dla ludzi kompletnie niezrozumiały.

W przypadku urządzeń, którym ludzie nadają jeden cel działania, mogłoby to oznaczać że: wojna przestanie być walką, stanie się eksterminacją – tak przynajmniej uważa dr Peter Lee z Uniwersytetu Portsmouth. Może się wówczas zdarzyć, że gdy z wojennego równania wyjmiemy człowieka, zniknie ludzki wymiar prowadzenia wojny. | CHIP

0
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.