Niespodziewany wynik badania ruchu w sieci. Akamai ostrzega – niemal połowa nie pochodzi od ludzi

Firma Akamai stworzyła swój coroczny raport na temat web scrappingu. Wnioski z niego wynikające są dość zaskakujące – aż 42 procent całkowitego ruchu w sieci nie jest generowane przez ludzi, a boty. A co groźne – większość z nich stworzona została do złośliwych działań.
Internet
Internet

Badanie Akamai koncentruje się przede wszystkim na „botach zbierających”, których zadaniem jest zbieranie danych i treści do wykorzystania w operacjach cyberprzestępczych. Boty te mogą znacząco wpłynąć na firmy internetowe, a algorytmy sztucznej inteligencji ułatwiają życie hakerom i przestępcom.

Jakie wnioski z raportu Akamai?

Raport Akamai na rok 2024 określa, że 42 procent całkowitego ruchu w sieci jest generowane przez boty, przy czym 65 procent tych botów ma wyraźnie złośliwe zamiary. Czy zatem internet to głównie… boty? Najbardziej dotknięty przez scraping (ekstrakcję danych z internetu) jest sektor e-commerce, gdzie odnotowano największy ruch botów określonych jako “wysoce ryzykowne”. Chociaż niektóre typy botów mogą przynosić korzyści firmom, boty przeglądające strony internetowe zazwyczaj mają negatywny wpływ zarówno na wyniki finansowe, jak i ogólne doświadczenie klienta. Są także wykorzystywane do podglądania konkurencji, klasycznego szpiegostwa, gromadzenia danych, a także tworzenia witryn oszukańczych i innych działań przestępczych.

Patrick Sullivan, dyrektor ds. technicznych firmy Akamai, wyjaśnia, że ​​boty stwarzają poważne wyzwania, powodując „wiele problemów” dla aplikacji internetowych, usług i właścicieli interfejsów API. Boty z łatwością uzyskują zdjęcia produktów, opisy, informacje o cenach i inne dane. Cyberprzestępcy mogą następnie wykorzystać je do tworzenia fałszywych witryn internetowych, które podszywają się pod znane marki lub usługi detaliczne.

Przeglądarki internetowe z luką

Czytaj też: Lepiej nie mieć Internetu wcale, niż mieć Facebooka bez limitu. Prezes UKE namiesza w ofertach operatorów

Gwałtowny rozwój botów jest związany z rozpowszechnieniem sztucznej inteligencji, dzięki której przestępcy łatwiej tworzą wyrafinowane mechanizmy. Korzystające z niej boty stają się coraz trudniejsze do wykrycia, sprawia również, że botnety oparte na sztucznej inteligencji mogą dobrze działać nawet w przypadku danych nieustrukturyzowanych i wykorzystywać rzeczywistą analizę biznesową, aby zapewnić oszustom znacznie udoskonalony „proces podejmowania decyzji”. Mogą oni zbierać, wydobywać i przetwarzać dane wydajniej niż kiedykolwiek wcześniej.

Boty przydają się im również do tworzenia nowych fałszywych kont, które można następnie wykorzystać do atakowania. A nawet nieszkodliwe boty usuwające dane mogą obniżyć wydajność witryny internetowej, wpłynąć na wskaźniki wyszukiwarek oraz zwiększyć koszty przetwarzania i hostingu. Te nowe zagrożenia wymagają nowatorskich, bardziej złożonych metod działania, wykraczających poza tradycyjne operacja. Podstawa to solidny firewall, ale niezbędne są również inne środki związane z bezpieczeństwem oraz ochroną ruchu sieciowego.