To boty rozpowszechniają fake newsy

Badacze monitorowali w serwisach społecznościowych 400 tysięcy twierdzeń, zawartych w artykułach ze 122 stron internetowych. Były to witryny znane z podawania nieprawdziwych informacji, m.in. portale o charakterze satyrycznym, takie jak np. The Onion. Następnie uczeni zebrali 14 milionów tweetów, których autorzy odnosili się do tez zawartych w artykułach. Większość kont, rozpowszechniających fake newsy, okazała się botami.
To boty rozpowszechniają fake newsy

Symulacja pokazuje w jaki sposób fałszywa informacja rozprzestrzeniała się w sieci – czerwone kropki oznaczają boty, niebieskie to prawdziwe konta (fot. CHIP)

Naukowcy analizowali też informacje udostępnione przez organizacje, które zajmują się weryfikowaniem wiadomości. Podczas badania zebrano 15 tysięcy doniesień, pochodzących z zaufanych źródeł oraz ponad milion tweetów podających je jako argument w dyskusji. Do badania wykorzystano oprogramowanie Hoaxy oraz Botometer, stworzone na Uniwersytecie Indiana. Hoaxy zbierał fałszywe informacje, Botometr następnie sprawdzał, czy konto, z którego wyszła nieprawdziwa informacja, może być botem.

Botometr pozwala walczyć z botami.
Serwis Botometer pozwala ocenić czy dane konto jest botem (fot. CHIP)

Z badania wynika, że za większością udostępnień fałszywych newsów kryje się niewielka liczba kont. Co ciekawe, podobne wyniki uzyskali uczeni z Oxfordu, badający między innymi polskie profile na Twitterze, o czym pisaliśmy w CHIP-ie wcześniej. Konta kontrolowane za pomocą programów zachowują się zupełnie inaczej, niż prowadzone przez ludzi. Np., te komputerowe, potrafią błyskawicznie, w ciągu kilku sekund po pojawieniu się informacji na stronie internetowej, przekazywać ją dalej w świat. Boty starają się również oznaczać wpływowych użytkowników, aby sprawiać wrażenie, że wiadomość jest wiarygodna, istotna i komentowana.

Fałszywe informacje publikowane przez boty dość szybko są udostępniane także przez prawdziwych użytkowników sieci. Aby temu przeciwdziałać, amerykańskie uczelnie nawiązały współpracę z portalami społecznościowymi. Do wykrywania podejrzanych kont mają zostać użyte algorytmy uczenia maszynowego. Ich wykorzystanie jednak wiąże się z ryzykiem błędnego rozpoznawania profili. Z tego powodu właściciele portali wolą na razie wspomagać oprogramowanie do filtrowania treści pracą człowieka. Takie rozwiązanie jest jednak mniej efektywne i nie nadąża za automatami, rozsyłającymi fake newsy. I mamy błędne koło. | CHIP