DARPA pracuje nad narzędziem do wykrywania sfałszowanych filmów

Fot. Monkeypaw Productions
Amerykańska Agencja Zaawansowanych Projektów Badawczy w Obszarze Obrony (DARPA) przeznaczyła już 68 milionów dolarów na rozwój sztucznej inteligencji. Jej zadaniem będzie rozpoznawanie sfabrykowanych nagrań umieszczanych m.in. w sieci.

Tzw. deepfakes, to bardzo zaawansowane algorytmy sztucznej inteligencji. Pozwalają one m.in. wkładać w usta znanych osób słowa, których te nigdy nie wypowiedziały. SI potrafi tak zamodelować ruch warg, że wygląda na prawdziwy. Algorytmy deepfakes umożliwiają też zastępowanie twarzy aktorów grających w filmach pornograficznych twarzami celebrytów i polityków. Takie treści pojawiły się w lutym, m.in. w serwisie Gfycat. Według przedstawicieli DARPA, tego typu fake newsy mogą zagrażać bezpieczeństwu wewnętrznemu. Jak działa taka manipulacja możecie zobaczyć poniżej na podstawie sfabrykowanego nagrania z przemówienia Baracka Obamy:

Łatwo sobie wyobrazić wpływowego polityka, którego słowa wywołują wojnę. To ekstremalny przykład. Fake newsy mogą też służyć dyskredytacji danego kandydata w wyborach. Z tego powodu DARPA pracuje nad narzędziem, które ułatwi wykrywanie fałszywych filmów. Nie jest to jednak łatwym zadaniem. Pomimo przeznaczenia 68 milionów dolarów na badania, które potrwają jeszcze dwa lata, do tej pory wyniki pracy naukowców nie są zadowalające.

Reklama

Sztuczna inteligencja DARPA w tej chwili wykrywa oczywiste manipulacje, których autorzy nie biorą pod uwagę takich szczegółów jak zacinające się przejścia i źle padające światło słoneczne. Można jednak przypuszczać ze względu na rozwój technologii, wykrywanie coraz dokładniejszych podróbek wystąpień osób publicznych będzie coraz trudniejsze. Dlatego tak istotne jest sprawdzanie źródeł, z których pochodzą kontrowersyjne nagrania. | CHIP

Close

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.