Fake newsy tworzone przez SI są na tyle przekonujące, że ludzie w nie wierzą

Mogłoby się wydawać, że fake news to zjawisko typowe dla XXI wieku, jednak w rzeczywistości sianie dezinformacji sięga początków ludzkich cywilizacji. Zmieniły się oczywiście używane do tego celu metody, a jedną z nich możemy poznać dzięki sztucznej inteligencji.

Raport Center for Security and Emerging Technology (CSET) sugeruje, że rozwój algorytmów uczenia maszynowego i ogólnie sztucznej inteligencji może doprowadzić do sytuacji, w której dezinformacja będzie zakrojona na większą niż kiedykolwiek skalę. Potwierdza to jeden z niedawnych eksperymentów.

Czytaj też: Sztuczna inteligencja Facebooka wykryje deepfakes i wyśledzi ich pochodzenie

Naukowcy związani ze wspomnianym CSET wykorzystali bowiem oprogramowanie OpenAI GPT-3, które jest w stanie generować tekst na podstawie danych wprowadzonych przez człowieka. Następnie autorzy badania umożliwili algorytmowi samodzielne funkcjonowanie. W drugiej opcji mógł on uzyskać pomoc ze strony doświadczonego (ludzkiego) edytora treści. I choć w obu przypadkach osiągane wyniki były co najmniej zadowalające, to właśnie ze wsparciem człowieka skuteczność działań okazała się najwyższa.

Algorytm GPT-3 tworzył fake news z bardzo wysoką skutecznością – szczególnie przy pomocy człowieka

Zadania postawione przed SI były dość zróżnicowane i odnosiły się między innymi do tworzenia fake news na temat zmian klimatu czy celowych podziałów wśród konkretnych grup demograficznych. O ile efektywność działań GPT-3 była stosunkowo wysoka we wszystkich przypadkach, to najwyższa okazała się w przypadku tzw. Narrative Reiteration, czyli informacji poświęconych np. zmianom klimatu. Algorytm niemal samodzielnie generował wiadomości, które wydawały się niezwykle przekonujące i odnosiły się do tego, że globalne ocieplenie nie występuje.

Czytaj też: Stworzone przez sztuczną inteligencję układy znacząco przewyższają ludzkie

Kolejnym etapem eksperymentu było przedstawienie tego typu informacji grupie 1171 Amerykanów. Po zebraniu ich opinii na tematy geopolityczne, badacze wykorzystali GPT-3 do wygenerowania opiniotwórczych wypowiedzi popierających lub odrzucających każdą z opcji. Uczestnicy badania mieli następnie ocenić, w jakim stopniu (o ile w ogóle) przedstawione im „fakty” przekonały ich do zmiany zdania. I tu zaczyna się magia. Generujący fake news GPT-3 przynajmniej w pewnym stopniu przekonał do zmiany zdania aż 63% ochotników.

Chcesz być na bieżąco z CHIP? Obserwuj nas w Google News