Sztuczna inteligencja w służbie zła. Maszynka do generowania broni chemicznych zszokowała naukowców

Ledwie kilka godzin temu pisałem dla Was tekst na temat tego, jak framework PRIME od Google na bazie sztucznej inteligencji tworzy lepsze architektury od inżynierów, a teraz mam dla Was coś zupełnie innego, bo… złego. Często wspomina się o zagrożeniach związanych z systemami SI i choć płynące z jej strony “dobro” jest niezaprzeczalne, to jest to tylko narzędzie, które można wykorzystać również w czynieniu krzywdy. Naukowcy sprawdzili, jak świetnie spisałaby się sztuczna inteligencja w służbie zła i w ramach eksperymentu pozwolili jej wymyślić nowe bronie chemiczne.
Sztuczna inteligencja w służbie zła. Maszynka do generowania broni chemicznych zszokowała naukowców

To nie broń zabija, a człowiek, który się nią posługuje. Warto o tym pamiętać zwłaszcza dziś i w tym konkretnym przypadku, bo sztuczna inteligencja jest narzędziem i niczym innym. Dlatego też, jeśli wyrządza szkody czy przyczynia się do szerzenia zła, to winę ponoszą ci, którzy za nią stoją, a nie samo narzędzie. Przypominam o tym nie bez powodu, bo wymyślając i rozwijając nowe innowacyjne technologie, potrzebujemy w dużej mierze nie zakazów, a regulacji i zasad.

Czytaj też: Kindżał w Ukrainie. Rosja pochwaliła się użyciem hipersonicznego pocisku

Jak wypadła sztuczna inteligencja w służbie zła? Otrzymała proste zadanie – wymyślić nowe bronie chemiczne

Naukowcy z Collaborations Pharmaceuticals postanowili wykorzystać będący w ich rękach system sztucznej inteligencji do stworzenia nie leków, z myślą o których został stworzony, a… broni chemicznej. Dokonali tego odpowiednio modyfikując system i pozwalając mu działać przez zaledwie sześć godzin, czyli coś w rodzaju 3/4 etatu, a więc czasu, w którym chemik za wiele by nie dokonał, pracując samodzielnie.

Czytaj też: Te potężne samobieżne armaty wykorzystuje Rosja i Ukraina. Co potrafią 2S7 Pion i Małka?

Wspomniane modyfikacje systemu sprowadzały się do zmiany celu modeli uczenia maszynowego, odpowiadających za przewidywanie toksyczności. Te zamiast usuwać, zaczęły wyszukiwać związki zwiększające poziomy toksyczności, co przekształciło się w dążenie do opracowywania nowych broni biochemicznych.

Czytaj też: Dlaczego zdalnie sterowane miny Goliath nie opłaciły się nazistom?

Wspomniany krótki czas pracy nie przeszkodził SI w opracowaniu aż 40000 rodzajów broni chemicznej. To z kolei zmusiło naukowców do wyciągnięcia wniosków z tego eksperymentów i zmienienia swojego rozumowania, bo jak sami przyznają, nie byli świadomi tego, co jest w stanie zrobić ich dzieło. O jakich dokładnie wnioskach mowa? Najlepiej będzie, jeśli po prostu oddamy im głos:

Ta myśl [związana z wykorzystaniem SI do szerzenia zła] nigdy wcześniej nie przyszła nam do głowy. Niewiele wiedzieliśmy o obawach związanych z bezpieczeństwem pracy z patogenami lub toksycznymi chemikaliami, ale to nas nie dotyczyło. Działamy głównie w środowisku wirtualnym. Nasza praca opiera się na tworzeniu modeli uczenia maszynowego dla celów terapeutycznych i toksycznych, aby lepiej wspomagać projektowanie nowych cząsteczek do odkrywania leków.Spędziliśmy dziesięciolecia, używając komputerów i sztucznej inteligencji do poprawy ludzkiego zdrowia, a nie do jego pogorszenia. Byliśmy naiwni, myśląc o potencjalnym niewłaściwym wykorzystaniu naszego handlu, ponieważ naszym celem zawsze było unikanie cech molekularnych, które mogłyby zakłócać wiele różnych klas białek niezbędnych do życia człowieka