Repliki osób stworzone przez badaczy z Google i Uniwersytetu Stanforda
Jak podaje Live Science, już w połowie listopada do bazy preprintów naukowych arXiv trafił dokument dotyczący tworzenia tzw. agentów symulacyjnych na bazie wywiadów przeprowadzonych z uczestnikami badania. Zebrane dane poddawane były analizie modelu generatywnej sztucznej inteligencji ukierunkowanej na naśladowanie ludzkich zachowań. Stworzono w ten sposób przy pomocy AI 1052 repliki badanych.
Podczas każdego dokładnego wywiadu naukowcy zbierali historie życia uczestników, opinie na temat spraw społecznych, wartości, czyli dane, które często są pomijane w tradycyjnych badaniach społecznych czy demograficznych. Badacze mieli także swobodę we wskazywaniu które elementy wywiadu były dla nich najważniejsze. Po dwóch tygodniach od pierwszego cyklu wywiadów przeprowadzono drugi, identyczny cykl.

Aby sprawdzić, jak radzą sobie stworzone na podstawie wywiadów repliki, także i one zostały poddane takim samym testom, które wykazały, że już dwugodzinny wywiad pozwala stworzyć model danej osoby, odwzorowujący jej reakcje z dokładnością 85%. Dokładne wyniki różniły się oczywiście w zależności od zadania – modele radziły sobie najlepiej z postawami społecznymi i badaniami osobowości, ale radziły sobie wyraźnie słabiej z zadaniami ekonomicznymi, kontekstami i dynamiką społeczną.
Czytaj też: GeForce RTX 50 – już wszystko jasne. Znamy też ceny w Polsce
Czy Google i Uniwersytet Stanforda otwierają Puszkę Pandory?
Uzyskana przez naukowców Google i Uniwersytetu Stanforda po dwugodzinnym wywiadzie jest bardzo dobra, a zapewne bez problemu da się ją dalej poprawić, usprawniając zarówno same modele AI, jak i zwiększając dokładność wywiadów. Repliki mogą być wykorzystywane do badania ludzkiego zachowania tam, gdzie do tej pory natrafiało to na problemy etyczne lub okazywało się z innych powodów niepraktyczne, zapewniając przy okazji wysoce kontrolowane i powtarzalne warunki dla badań.
Niestety, niesie to także duże zagrożenia – już dziś mamy problemy z odróżnieniem, co jest prawdziwym obrazem, a co tworem AI. Wygenerowane przez AI deepfake używane były zarówno do manipulacji w procesach politycznych (wyborczych, etc.), jak i do indywidualnych oszustw. Tworzenie wiarygodnie działających replik osobowości może podnieść zagrożenie związane z fałszywkami na zupełnie nowy poziom, znacznie trudniejszy do wykrycia i o potencjalnie znacznie poważniejszych skutkach.