DARPA pracuje nad narzędziem do wykrywania sfałszowanych filmów

Tzw. deepfakes, to bardzo zaawansowane algorytmy sztucznej inteligencji. Pozwalają one m.in. wkładać w usta znanych osób słowa, których te nigdy nie wypowiedziały. SI potrafi tak zamodelować ruch warg, że wygląda na prawdziwy. Algorytmy deepfakes umożliwiają też zastępowanie twarzy aktorów grających w filmach pornograficznych twarzami celebrytów i polityków. Takie treści pojawiły się w lutym, m.in. w serwisie Gfycat. Według przedstawicieli DARPA, tego typu fake newsy mogą zagrażać bezpieczeństwu wewnętrznemu. Jak działa taka manipulacja możecie zobaczyć poniżej na podstawie sfabrykowanego nagrania z przemówienia Baracka Obamy:
DARPA pracuje nad narzędziem do wykrywania sfałszowanych filmów

Łatwo sobie wyobrazić wpływowego polityka, którego słowa wywołują wojnę. To ekstremalny przykład. Fake newsy mogą też służyć dyskredytacji danego kandydata w wyborach. Z tego powodu DARPA pracuje nad narzędziem, które ułatwi wykrywanie fałszywych filmów. Nie jest to jednak łatwym zadaniem. Pomimo przeznaczenia 68 milionów dolarów na badania, które potrwają jeszcze dwa lata, do tej pory wyniki pracy naukowców nie są zadowalające.

Sztuczna inteligencja DARPA w tej chwili wykrywa oczywiste manipulacje, których autorzy nie biorą pod uwagę takich szczegółów jak zacinające się przejścia i źle padające światło słoneczne. Można jednak przypuszczać ze względu na rozwój technologii, wykrywanie coraz dokładniejszych podróbek wystąpień osób publicznych będzie coraz trudniejsze. Dlatego tak istotne jest sprawdzanie źródeł, z których pochodzą kontrowersyjne nagrania. | CHIP