Problem radzenia sobie z fałszywymi wideo nie zmaleje, a raczej będzie już tylko przybierał na sile. Coraz łatwiejsze jest produkowanie treści wideo zaskakująco bliskich w swoim wyglądzie do realistycznych materiałów oraz coraz prostszy dostęp do narzędzi wideo z pewnością nie pomagają w walce z fałszywymi informacjami.
Badacze z Uniwersytetu Cornella chcą podejść do sprawy od innej strony. Przyglądają się w tym celu nie rysom twarzy czy szczegółowości scenerii, a światłu. To może w swoich falach nie tylko transportować określony kolor, ale i cyfrowe znaki wodne.
Światło do demaskowania deepfake’ów. Jak fluktuacje mogą zmienić oblicze sceny?
Peter Michael to doktorant na uczelni Cornella w Nowym Jorku. Przewodził on grupie tworzącej projekt o nazwie “Noise-Coded Illumination for Forensic and Photometric Video”, który 10 sierpnia zaprezentowano na konferencji SIGGRAPH 2025, gdzie przedstawia się przełomowe artykuły naukowe. Badacze swoimi działaniami stają w opozycji do tego, jak obecnie zabezpiecza się wideo z generatorów AI, dodając do nich charakterystyczne piksele lub bezpośrednio widoczne znaki wodne. Tego typu rozwiązania mogą być usuwane przez cyberzłoczyńców, którym będzie zależało na wytworzeniu jak największego poczucia autentyczności. Do tego celu wykorzystają zmodyfikowane kamery lub modele AI.
Czym innym może być zawarcie kodu będącego znakiem wodnym w świetle. Dzięki metodzie opracowanej przez naukowców każde wideo nagrane w miejscu z charakterystycznym oświetleniem mogłoby zawierać w sobie informacje potwierdzające autentyczność takiego materiału. Kodem byłoby charakterystyczne migotanie światła – niemal niewidoczne dla ludzkiego oka, ale jednocześnie bardzo dobrze zauważalne przez oprogramowanie do rozpoznawania modyfikowanego wideo.
Czytaj też: Kolejne luki w szyfrowaniu TETRA. Komunikacja służb specjalnych znów zagrożona
Do tego celu nie będzie potrzeba wymiany wszystkich świateł w studiach nagraniowych czy przestrzeniach, choć i taki scenariusz zakładają twórcy. Do lamp należy przyczepić zaprogramowany w sekretny sposób chip, który następnie będzie decydował o różnicach w natężeniu prądu i w efekcie wytworzy charakterystyczny, wizualny kod. Jeśli ktoś będzie manipulował takim materiałem, nie będzie mógł odtworzyć kodu, jaki zawarto w oryginalnym oświetleniu. W efekcie fragmenty wideo nie będą posiadały informacji, a oprogramowanie odnotuje ten fakt. Jednocześnie kod ma być nie do dostrzeżenia przez ludzi i to właśnie ta część stanowiła największe wyzwanie.

Światło dostarczane do większości scenerii zawiera w sobie szumy. Z kolei deepfake’i generowane od nowości nie są w stanie odtworzyć takiej informacji. Wynika ona z warunków środowiskowych, dostarczaniu prądu, jak i samej wydajności lamp. Takie rozwiązanie może też zidentyfikować, że wideo zostało przycięte w momencie, który otwiera pole do manipulacji. Miejsca kadru, gdzie zastosowano zmiany, podświetlą się w oprogramowaniu wyraźnym kolorem. Stworzenie takiego narzędzia wymagało wielokrotnej modyfikacji oświetlenia, nagrywania wideo i programowania na bieżąco.
Światło nie pokona deepfake’ów, ale może zmniejszyć ich istotność
Badacze podkreślają, że wdrożenie tego rozwiązania wprowadza inne kolejne problemy. Nie we wszystkich miejscach to rozwiązanie będzie skuteczne. Do tego to rozwiązanie zabezpieczy obiekty objęte światłem, a niekoniecznie ich tło. Uczeni przyznają, że walka z deepfake’ami to wyścig zbrojeń i w przyszłości mogą powstać narzędzia generujące dopasowany kod lub go odczytujące. Na ten moment jest to jednak proces wydłużający czas powstawania takiego wideo i znacznie go utrudniający.
Czytaj też: Kiedy AI przejmuje kontrolę nad komputerem i telefonem, może być niebezpiecznie
Nad rozwiązaniami problemu deepfake społeczeństwo musi pracować. Cyberprzestępcy masowo wykorzystują AI, a coraz lepsze modele open-source dostępne na naszych komputerach przesuwają granicę tego, co jesteśmy w stanie zrobić bez dodatkowych kosztów. I o ile sieci dementujące fałszywe informacje stale się rozwijają, tak efekt szoku i szybkość rozprzestrzeniania się niektórych materiałów sprawiają, że trudno zareagować na takie zdarzenia. Blokada za pośrednictwem kodu może zatem uratować świat od fałszywych informacji.