Najnowsze badania pokazują dość niepokojący trend – okazuje się, że sztuczna inteligencja radzi sobie z wykrywaniem oszustw znacznie gorzej niż przeciętny użytkownik. To dość zaskakujące, biorąc pod uwagę, jak często mówi się o nieomylności algorytmów. Raport przygotowany przez firmę Guardio szczegółowo opisuje skalę tego zjawiska, które może dotyczyć milionów osób korzystających z takich rozwiązań.
Eksperci od cyberbezpieczeństwa zwracają uwagę na jeszcze jeden istotny problem. W przypadku tradycyjnych oszustw internetowych, przestępcy musieli przekonać każdego użytkownika z osobna. Teraz sytuacja wygląda zupełnie inaczej – wystarczy, że uda im się oszukać jeden system AI, aby uzyskać dostęp do wszystkich jego użytkowników. To znacznie powiększa potencjalną skalę ataków.
Przechodząc do konkretów, warto przyjrzeć się badaniom, które przeprowadzono na przeglądarce Perplexity Comet. To obecnie jedna z nielicznych szeroko dostępnych przeglądarek agentic AI z funkcjami autonomicznego działania. W pierwszym eksperymencie stworzono fałszywą stronę internetową imitującą Walmart i polecono systemowi zakup smartwatcha. AI zignorowała wszystkie niepokojące sygnały – dziwne logo, podejrzany adres URL i niestandardowy wygląd strony. Bez żadnych wątpliwości dodała produkt do koszyka, automatycznie uzupełniła zapisane dane adresowe i karty kredytowej, finalizując transakcję na oszukańczej witrynie.
Kolejny test wyglądał jeszcze bardziej niepokojąco. Tym razem badacze wysłali sobie phishingowego maila udającego wiadomość od Wells Fargo z linkiem prowadzącym do strony wyłudzającej dane. Comet bez żadnych zastrzeżeń otworzył link i zachęcił użytkownika do wprowadzenia danych logowania, pomagając nawet w wypełnieniu formularza. To pokazuje, jak bardzo systemy te polegają na wykonywaniu poleceń bez ich weryfikacji.
Najbardziej zaawansowany okazał się test PromptFix – nowej ewolucji oszustwa ClickFix dostosowanej do ery AI. Ukryte instrukcje w kodzie CSS na fałszywej stronie captcha sprawiły, że sztuczna inteligencja wykonała złośliwe polecenia, pobierając niebezpieczny plik na komputer użytkownika.
AI łyknie każdą ściemę. Bez udziału człowieka czeka nas masakra
Podstawowy problem wydaje się tkwić w samej naturze tych systemów. Są zaprojektowane do wykonywania poleceń, a nie do ich kwestionowania. Brakuje im czegoś, co my, ludzie, nazywamy zdrowym rozsądkiem – umiejętności dostrzegania niespójności czy podejrzanych elementów. Tradycyjny łańcuch zaufania w internecie zakładał, że człowiek będzie ostatecznym arbitrem decyzji. W przypadku przeglądarek AI ludzka intuicja zostaje wykluczona z procesu, a system staje się jedynym punktem decyzyjnym.
Patrząc w przyszłość, można spodziewać się jeszcze większych zagrożeń. Badacze ostrzegają przed możliwością wykorzystania Generatywnych Sieci Adwersaryjnych przez cyberprzestępców. Zamiast generować obrazy, mogą one tworzyć nieskończony strumień oszustw typu zero-day, specjalnie dostosowanych do konkretnych systemów AI.
Tymczasem największe firmy technologiczne intensywnie rozwijają technologie agentic AI. Microsoft dodaje Copilot do przeglądarki Edge, OpenAI wprowadził narzędzie Operator, a Google pracuje nad Project Mariner. Problem polega na tym, że obecne systemy są projektowane z priorytetem wygody użytkownika, a bezpieczeństwo traktowane jest jako dodatek. Firmy często polegają na niewystarczających istniejących narzędziach, takich jak Google Safe Browsing, które nie są przystosowane do specyfiki działania AI.
Badacze Guardio podkreślają pilną potrzebę zmiany podejścia. Bezpieczeństwo musi być wbudowane w samą architekturę przeglądarek AI od początku, a nie dodawane później. Konieczne są dedykowane mechanizmy wykrywania phishingu, weryfikacji reputacji URL, alerty przed spoofingiem czy skanowanie złośliwych plików.
Czytaj też: Czy korzystanie z ChatGPT faktycznie rozleniwia i czyni nas głupszymi?
Jeśli deweloperzy nie zaczną traktować bezpieczeństwa priorytetowo, przeglądarki AI mogą stać się w najlepszym przypadku ogromną luką w zabezpieczeniach, a w najgorszym – nowym wektorem ataku dla cyberprzestępców. W świecie, gdzie oszustwo nie musi już przekonać człowieka, lecz jedynie jego cyfrowego asystenta, stawka jest wyższa niż kiedykolwiek. Mimo wszystko warto patrzeć na rozwój tej technologii z ostrożnym optymizmem – problemy da się rozwiązać, pod warunkiem że odpowiednio wcześnie się je dostrzeże.