Główna autorka badań zamieszczonych na łamach PLOS One, Gillian Murphy, mówi o nieco przerażającej wizji. Ona i jej współpracownicy doprowadzili bowiem do sytuacji, w której byli w stanie sprawić, by uczestnicy eksperymentów uwierzyli w daleko idące kłamstwa. Mimo to, dla ludzkości wciąż jest pewna nadzieja.
Czytaj też: Fact-checkerzy mają dość dezinformacji na YouTube. Domagają się zmian
Jak w ogóle wyglądały eksperymenty? Chodziło o prezentowanie ochotnikom fragmentów filmów przerobionych z użyciem technologii deepfake. W ten sposób powstał na przykład Matrix, w którym główną rolę odgrywa Will Smith czy też Lśnienie z występem Brada Pitta.
Łącznie w badaniu wzięło udział 436 osób. Niemal połowa, bo dokładnie 49 procent uczestników uznało sfałszowane filmy za lepsze od oryginalnych. Idąc dalej, 41 procent oceniło remake Captain Marvel z Charlize Theron wyżej od pierwotnej wersji. Patrząc po materiałach, które trafiły do sieci, można sobie wyobrazić, dlaczego tak wiele osób było w stanie uwierzyć w pokazywane im fragmenty. Na przykład powyżej możecie zobaczyć Poszukiwaczy zaginionej Arki z Chrisem Prattem w kultowej roli Harrisona Forda.
Fałszywe wspomnienia wprowadzane z wykorzystaniem technologii deepfake okazały się równie skuteczne, co “klasyczne” sposoby, oparte na opisach tekstowych
Z drugiej strony, trzeba przyznać, że technologia deepfake wcale nie musi być tak potężnym narzędziem dezinformacji, jak sugerowałyby przytoczone dane. Okazało się, że nie mniej skutecznym rozwiązaniem było wprowadzanie ochotników w błąd poprzez zastosowanie fałszywych opisów filmów. Innymi słowy, byli oni skłonni uwierzyć w przekłamania, nawet jeśli nie zostały one zaprezentowane na ekranie. Równie dobrze w tym zakresie sprawdzały się krótkie notki, dzięki którym autorzy badań mogli wywołać mętlikach w głowach uczestników.
Czytaj też: Komunistyczne Chiny walczą o prawdę. Państwo wzięło deepfake na celownik
Mimo wszystko nietrudno odnieść wrażenie, że rozprzestrzenianie fałszywych informacji w sieci jest obecnie łatwiejsze niż kiedykolwiek. Z jednej strony pozwala na to rozwój technologiczny, dzięki któremu wszelkiego rodzaju “fejki” są wyjątkowo przekonujące. Z drugiej natomiast widzimy niewystarczająco krytyczne podejście społeczeństwa do prezentowanych informacji. Wydaje się, iż z biegiem lat sytuacja będzie się tylko pogarszać – szczególnie, że możliwości sztucznej inteligencji wciąż rosną. Z tego względu kluczowa powinna być edukacja społeczeństwa mająca na celu uczulanie na treści znajdowane w sieci. Osobną kwestię będzie też stanowiło oprogramowanie mające za zadanie wykrywanie ingerencji w treści, tak, aby rozpoznać elementy zmienione na przykład przez narzędzia służące do produkcji deepafake’ów.