Raport w tej sprawie, zatytułowany Law enforcement and the challenge of deepfakes, sugeruje, że nawet 90 procent treści online może być generowanych przez algorytmy do 2026 roku. Dokładniej rzecz biorąc, chodzi o wszystko to, co może wytworzyć bądź zmodyfikować sztuczna inteligencja.
Czytaj też: Czy sztuczna inteligencja jest zagrożeniem dla ludzkości?
Jak wyjaśniają autorzy wspomnianego dokumentu, w większości przypadków tzw. syntetyczne media są generowane na potrzeby gier wideo, w celu poprawy usług lub wzrostu jakości życia. Stwarza to jednocześnie zagrożenie występowania dezinformacji. Oczywiście tego typu problemy występują nawet obecnie, jednak ich natężenie może znacząco wzrosnąć w kolejnych latach. Już teraz wszelkiego rodzaju boty “egzystują” w wirtualnym świecie, a generowane przez sztuczną inteligencję obrazki, które powstają na podstawie tekstowych opisów, cieszą się ogromną popularnością.
90% treści dostępnych w internecie będzie w 2026 roku pochodziło od narzędzi opartych na sztucznej inteligencji
Na co dzień ludzie ufają własnej percepcji, która ich prowadzi i mówi, co jest prawdziwe, a co nie. Dźwiękowe i wizualne nagrania wydarzeń są często traktowane jako prawdziwa relacja z ich przebiegu. Ale co, jeśli te media mogą być generowane syntetycznie, przystosowane do pokazywania wydarzeń, które nigdy nie miały miejsca, do błędnego przedstawiania wydarzeń lub do wypaczania prawdy?opisują autorzy
Czytaj też: Ten robot może podzielić się na części, a później złączyć w całość. Futurystyczna technologia w akcji
W największej mierze eksperci zwracają uwagę na kwestie związane z dezinformacją, której podstawę mogłyby stanowić technologie pokroju deepfake. Poza tym rosnący udział sztucznej inteligencji w generowaniu treści, co widzimy obecnie za sprawą narzędzi takich jak Dall-E i GPT-3, może utrudnić życie artystom czy pisarzom. Z pewnością istotną rolę zaczną odgrywać różnego rodzaju technologie zabezpieczające, które mogłyby ułatwiać rozpoznawanie popularnych “fejków”.