Dania pionierem walki z deepfake
Duński parlament przygotowuje przełomową nowelizację prawa autorskiego, która da każdemu obywatelowi prawo własności do swojego ciała, twarzy i głosu. Minister kultury Jakob Engel-Schmidt zapowiedział złożenie projektu do konsultacji przed wakacjami, a głosowanie ma odbyć się jesienią 2025 roku.
Według duńskich władz to pierwsza tego typu regulacja w Europie. Projekt ma poparcie 9 na 10 parlamentarzystów, co gwarantuje szybkie uchwalenie. Duńskie prawo definiuje deepfake jako bardzo realistyczną cyfrową reprezentację osoby, obejmującą jej wygląd i głos, stworzoną przy użyciu sztucznej inteligencji.
“Wysyłamy jednoznaczny komunikat, że każdy ma prawo do swojego ciała, głosu i rysów twarzy” – powiedział minister Engel-Schmidt w rozmowie z The Guardian. Dodał, że nie akceptuje sytuacji, w której “ludzie mogą być przepuszczani przez cyfrowe kopiarki i nadużywani do różnych celów”.
Nowe uprawnienia dla obywateli
Zmienione prawo autorskie da Duńczykom konkretne narzędzia do walki z deepfake’ami. Obywatele będą mogli żądać usunięcia deepfake’ów bez zgody z platform online oraz dochodzić odszkodowania za naruszenia. Przepisy obejmą także “realistyczne, cyfrowo generowane imitacje” występów artystycznych bez zgody.
Ważnym elementem regulacji jest zachowanie wyjątków dla parodii i satyry, które pozostaną legalne. Duńskie władze nie chcą ograniczać wolności wypowiedzi, lecz chronić obywateli przed złośliwym wykorzystaniem ich wizerunku.
Jeśli platformy technologiczne nie będą współpracować w usuwaniu nielegalnych deepfake’ów, mogą spotkać się z “poważnymi karami”. Minister Engel-Schmidt ostrzega, że sprawa może trafić do Komisji Europejskiej, jeśli firmy technologiczne nie potraktują nowych przepisów poważnie.
Eksplozja deepfake w Europie
Europa zmaga się z rosnącą falą deepfake’ów napędzaną rozwojem sztucznej inteligencji. Technologia ta pozwala tworzyć przekonujące fałszywe filmy i nagrania głosowe praktycznie każdej osoby, wykorzystując często tylko jedno zdjęcie i kilkusekundowy fragment głosu.
Przykłady nadużyć z ostatnich miesięcy pokazują skalę problemu. Donald Trump publikował podczas kampanii prezydenckiej deepfake’i z Taylor Swift i Kamalą Harris. W Polsce NASK odnotował w maju 2024 roku nowe deepfake’i z Rafałem Brzoską, Andrzejem Dudą i Robertem Lewandowskim. Branża finansowa zmaga się z problemem oszustw inwestycyjnych wykorzystujących deepfake’i gwiazd.
Technologia deepfake rozwija się w tempie, które przeraża ekspertów. To, co jeszcze niedawno wymagało zaawansowanego sprzętu i umiejętności, dziś może wykonać praktycznie każdy za pomocą aplikacji mobilnej.
Polskie prawo wobec deepfake
Obecne przepisy w Polsce już częściowo chronią przed deepfake’ami, choć nie wprost. Artykuł 81 prawa autorskiego wymaga zgody na rozpowszechnianie wizerunku, a kodeks cywilny chroni dobra osobiste, w tym wizerunek i głos. RODO traktuje wizerunek jako daną osobową wymagającą ochrony, a prawo karne może potraktować deepfake jako zniesławienie lub oszustwo.
Problem polega na tym, że obecne regulacje nie są dostosowane do specyfiki treści generowanych przez sztuczną inteligencję. Procedury sądowe trwają zbyt długo w erze social mediów, a identyfikowanie twórców deepfake’ów często graniczy z niemożliwością.
AI Act UE z 2024 roku wprowadził wymóg oznaczania treści AI jako “generowane sztucznie”, ale nie daje konkretnych narzędzi do szybkiego usuwania nielegalnych materiałów. Polskie ministerstwa na razie obserwują duński eksperyment zamiast przygotowywać własne rozwiązania.
Wyzwania techniczne i prawne
Wdrożenie duńskich przepisów napotka poważne wyzwania techniczne. Wykrywanie deepfake’ów wymaga zaawansowanych narzędzi AI, a granica między parodią a naruszeniem może być nieczytelna. Międzynarodowy charakter platform technologicznych dodatkowo utrudni egzekwowanie nowych przepisów.
Krytycy ostrzegają przed ryzykiem nadmiernej cenzury. Podobne regulacje w Singapurze spotkały się z zarzutami, że rząd wykorzystuje walkę z dezinformacją do tłumienia krytyki politycznej. Duńskie władze zapewniają, że ich celem jest ochrona obywateli, a nie ograniczanie wolności słowa.
Platformy technologiczne będą musiały zainwestować w kosztowne systemy automatycznego wykrywania deepfake’ów. Meta, TikTok, X i YouTube już eksperymentują z takimi rozwiązaniami, ale ich skuteczność pozostaje ograniczona.
Perspektywy dla Polski
Eksperci prawni są podzieleni co do potrzeby podobnych regulacji w Polsce. Zwolennicy argumentują, że rosnąca liczba deepfake’ów z polskimi politykami i celebrytami wymaga szybkich mechanizmów reagowania. Obecne prawo chroni przed deepfake’ami, ale procedury są zbyt wolne dla rzeczywistości internetu.
Przeciwnicy wskazują, że polskie przepisy o dobrach osobistych i prawie autorskim już dają wystarczające podstawy prawne. Wprowadzanie dodatkowych regulacji może prowadzić do nadmiernej cenzury i trudności technicznych z automatycznym wykrywaniem fałszywych treści.
Ministerstwo Kultury na razie nie planuje podobnych zmian w polskim prawie. Urzędnicy przyznają, że obserwują duński eksperyment z zainteresowaniem, ale wolą poczekać na pierwsze efekty przed podjęciem własnych działań.
Podsumowanie
Duńska inicjatywa może zdefiniować europejski standard walki z deepfake’ami na następne lata. Połączenie prawa autorskiego z ochroną wizerunku to nowatorskie podejście, które może przyspieszyć usuwanie fałszywych treści z sieci.
Dla polityków i celebrytów oznacza to łatwiejszą ochronę przed manipulacjami. Zwykli obywatele zyskają zabezpieczenie przed wykorzystaniem ich wizerunku w oszustwach finansowych. Platformy technologiczne będą musiały zainwestować w lepsze narzędzia wykrywania deepfake’ów.
Czy Polska potrzebuje podobnych przepisów? Ministerstwo Kultury póki co obserwuje duński eksperyment. Alternatywą są edukacja cyfrowa, lepsze narzędzia wykrywania deepfake’ów i współpraca platform z organami ścigania.
Czytaj też: Czy sztuczna inteligencja pozbawia nas umiejętności myślenia? Nowe badania budzą niepokój
Duńskie przepisy wejdą w życie prawdopodobnie jesienią 2025 roku. Inne kraje UE obserwują ten eksperyment z dużym zainteresowaniem – jego sukces lub porażka może zadecydować o przyszłości europejskiej regulacji deepfake’ów.