Google Threat Intelligence Group (GTIG) poinformowało o pierwszym znanym przypadku wykorzystania AI do stworzenia exploita typu zero-day. To bardzo istotna zmiana, ponieważ do tej pory modele AI pełniły głównie rolę narzędzia wspierającego cyberprzestępców. Pomagały pisać kod, automatyzować działania czy przygotowywać kampanie socjotechniczne. Tym razem algorytmy zostały wykorzystane do czegoś znacznie bardziej zaawansowanego — opracowania metody ataku na lukę, której wcześniej nie wykryli sami twórcy oprogramowania.
AI zaczyna samodzielnie szukać luk
Według raportu GTIG exploit został wykorzystany przeciwko systemowi opartemu o Pythona i pozwalał na obchodzenie zabezpieczeń związanych z uwierzytelnianiem dwuskładnikowym. Atak nie zdążył rozprzestrzenić się na szeroką skalę, ponieważ Google załatał lukę odpowiednio wcześnie, jednak sam fakt jego powstania jest wyjątkowo niepokojący.
Najciekawsze jest jednak to, w jaki sposób wykryto udział sztucznej inteligencji w tworzeniu exploita. Analiza kodu ujawniła charakterystyczne elementy wskazujące na użycie modeli językowych — między innymi fragmenty przypominające dane treningowe LLM-ów oraz błędnie wygenerowany wynik CVSS, czyli skali służącej do oceny poziomu zagrożenia podatności. Innymi słowy: AI pozostawiło po sobie coś w rodzaju cyfrowego „śladu halucynacji”.
Na ten moment właśnie takie błędy pomagają ekspertom identyfikować kod wspierany przez modele generatywne. Problem polega jednak na tym, że modele AI rozwijają się niezwykle szybko. Dzisiejsze niedoskonałości mogą za kilka lat po prostu zniknąć.
Cyberprzestępczość staje się szybsza i tańsza
Największym zagrożeniem nie jest nawet sam pojedynczy exploit, ale to, co oznacza on dla cyberbezpieczeństwa. Tworzenie zaawansowanego malware’u czy odkrywanie luk zero-day przez lata wymagało ogromnych kompetencji i miesięcy pracy wyspecjalizowanych zespołów. AI radykalnie obniża ten próg wejścia. To oznacza, że grupy dysponujące znacznie mniejszym doświadczeniem technicznym mogą zacząć tworzyć narzędzia, które wcześniej były dostępne głównie dla największych organizacji przestępczych albo państwowych cyberjednostek.
Eksperci zwracają też uwagę na rozwój autonomicznego malware’u. Dobrym przykładem jest PROMPTSPY — złośliwe oprogramowanie wykorzystujące mechanizmy AI do dynamicznego analizowania zainfekowanego systemu i generowania własnych działań bez konieczności ciągłego sterowania przez człowieka. To istotna zmiana jakościowa. Dotychczas większość malware’u działała według z góry ustalonego schematu. Systemy oparte na AI zaczynają natomiast adaptować się do sytuacji praktycznie w czasie rzeczywistym.
Czytaj też: Meta chce, żeby AI robiło zakupy za mnie. Dziękuję, nie skorzystam
Cała sytuacja ma jednak również drugą stronę. Te same technologie są dziś intensywnie wykorzystywane przez firmy zajmujące się bezpieczeństwem. Mozilla poinformowała niedawno, że dzięki wsparciu AI była w stanie wykryć i naprawić ponad 400 błędów bezpieczeństwa w ciągu jednego miesiąca. Google rozwija natomiast własne projekty, takie jak Big Sleep czy CodeMender, które mają automatycznie analizować kod i wykrywać podatności jeszcze przed ich wykorzystaniem przez cyberprzestępców.
Coraz wyraźniej widać więc, że wchodzimy w erę „algorytmicznego wyścigu zbrojeń”, gdzie po obu stronach barykady znajdują się systemy AI. Jeszcze niedawno sztuczna inteligencja była w cyberbezpieczeństwie głównie dodatkiem wspierającym człowieka. Teraz zaczyna uczestniczyć w całym procesie niemal samodzielnie — zarówno po stronie obrony, jak i ataku.
Największym problemem może być autonomia
Na razie eksperci wciąż są w stanie wychwytywać część „AI-owych” błędów w złośliwym kodzie. To jednak prawdopodobnie tylko etap przejściowy. Z czasem modele będą coraz skuteczniejsze, bardziej precyzyjne i trudniejsze do odróżnienia od pracy człowieka. Dlatego największym wyzwaniem może okazać się nie sama szybkość generowania exploitów, ale autonomia takich systemów. Malware, który sam analizuje środowisko, podejmuje decyzje i dostosowuje swoje działania bez bezpośrednich instrukcji operatora, brzmi dziś jak scenariusz z futurystycznego thrillera. Problem polega na tym, że właśnie przestaje nim być.
Źródło: Google Threat Intelligence Group
