Podrabianie mówiących ludzi stało się jeszcze łatwiejsze

Naukowcy z Uniwersytetu w stanie Waszyngton opracowali metodę, dzięki której przygotowanie modelu 3D danej osoby stało się zdecydowanie prostsze. Jedyne, czego potrzebujemy, to jak największa liczba zwykłych zdjęć tej osoby, co w przypadku celebrytów czy osób publicznych z reguły nie stanowi najmniejszego problemu.
Podrabianie mówiących ludzi stało się jeszcze łatwiejsze

Co to oznacza w praktyce? Na przykład to, że należało będzie ze znacznie większą ostrożnością podchodzić do filmików krążących w sieci. Jeśli zobaczycie chociażby premierę Ewę Kopacz, powołującą Jarosława Kaczyńskiego na jedno z wakujących stanowisk w jej rządzie, zobaczycie ruchy warg i całej jej twarzy, a równocześnie usłyszycie (stosunkowo łatwy do naśladowania) jej głos, to jeszcze nie oznacza to, że skoro “w telewizji pokazali”, to na pewno musi być prawda.

To oczywiście dość skrajny przykład, ale – z tą technologią – absolutnie prawdopodobny. Równie prawdopodobne może być jednak komercyjne zastosowanie twarzy różnych znanych osób w funkcji awatarów. Skoro Arnold Schwarzenegger użycza swojego głosu w nowo powstającej nawigacji samochodowej, to być może nie będzie miał nic przeciwko temu, żeby za odpowiednią opłatą użyczyć również swojej charakterystycznej fizjonomii. A wtedy wideorozmowy – chociażby przez Skype’a – zaczną wyglądać zupełnie inaczej. Jeszcze bardziej oczywistym obszarem zastosowań tej technologii staną się naturalnie gry.

Piszemy jakieś niestworzone historie? Bynajmniej. Na filmie prezentowanym poniżej możecie chociażby zobaczyć twarz (a tak naprawdę jej animowany model 3D) japońskiego premiera, wypowiadającą się jednak słowami Daniela Craig’a (albo inaczej – najnowszego Bonda). Ciekawe, czy model 3D Donalda Tuska również pojawi się niedługo jako jedna z dostępnych opcji…