Emocje zamiast siły. Robot, który mruga i wodzi wzrokiem
W ostatnim czasie dyskusja o nowym kierunku w robotyce nabrała tempa, a odpowiada za to Yuhang Hu, badacz i założyciel Shouxing Technology, który udostępnił na platformie X nagranie, a ono błyskawicznie stało się wiralem. Widać na nim humanoidalną kobietę-robota, której twarz porusza się w sposób niemal nieodróżnialny od ludzkiego. Maszyna naturalnie mruga, skanuje wzrokiem pomieszczenie i reaguje na otoczenie subtelnymi grymasami. Za tym osiągnięciem stoi firma AheadForm, która już wcześniej, w październiku zeszłego roku, zaskoczyła świat modelem Elf V1 o podobnych możliwościach.
Obserwatorzy branżowi zauważają, że roboty potrafiące pracować przy taśmie montażowej już istnieją i sprawnie wykonują swoje zadania. Prawdziwym wyzwaniem okazuje się jednak sprawienie, by roboty stały się akceptowalne społecznie. Maszyna bez ekspresji może być funkcjonalna, ale nie zbuduje więzi emocjonalnej z człowiekiem – a to właśnie ten element jest uważany za kluczowy dla masowej adopcji robotów w sektorze usług.
Czytaj też: Hyundai i Persona AI budują przyszłość stoczni. Roboty włożą maski spawalnicze
Co więcej, nowa generacja chińskich robotów jest zintegrowana z zaawansowaną sztuczną inteligencją (Omni AI), co pozwala im nie tylko „wyglądać”, ale i „rozumieć”. Dzięki multimodalnej AI robot widzi, słyszy i odpowiada w sposób płynny, co sprawia, że rozmowa z nim przypomina dialog z drugim człowiekiem, a nie komendy wydawane pralce. W branży coraz częściej mówi się, że proste ramiona robotyczne są tańsze i wydajniejsze w fabrykach, więc prawdziwy przełom musi nastąpić tam, gdzie liczy się interakcja, a nie tylko udźwig.
Syntetyczna skóra i mikro-siłowniki
Jak to możliwe, że kawałek plastiku i metalu potrafi oddać tak subtelne emocje jak niepewność czy rozbawienie? Chińskie firmy technologiczne wykorzystują kombinację trzech elementów: wysokiej jakości syntetycznej skóry, sieci dziesiątek mikro-siłowników ukrytych pod „tkanką” oraz systemów AI, które mapują ludzkie emocje w czasie rzeczywistym. Dzięki temu roboty potrafią śledzić twarz rozmówcy i odpowiadać na jego uśmiech własnym, dopasowanym grymasem.
Czytaj też: Robot w każdym salonie. Amazon kupuje Fauna Robotics i stawia na humanoidalnego pomocnika
To podejście sugeruje, że przyszłość humanoidalnych maszyn zależy mniej od parametrów mechanicznych, a bardziej od tzw. Human-Robot Interaction. Jeśli roboty mają pracować jako asystenci sprzedaży, przewodnicy w muzeach czy recepcjoniści, komunikacja niewerbalna przestaje być opcjonalnym gadżetem, a staje się niezbędnym wyposażeniem. Trend ten widać już w przestrzeniach publicznych, gdzie maszyny coraz częściej pełnią role wizerunkowe i obsługowe.
W środowisku ekspertów trwa jednak spór. Niektórzy twierdzą, że na tym etapie takie roboty to jedynie „pokazówki” technologicznych możliwości, które nie mają jeszcze uzasadnienia ekonomicznego. Inni z kolei są przekonani, że bez upodobnienia robotów do ludzi nigdy nie wyjdą one poza zamknięte hale fabryczne. Wydaje się, że rynek skłania się ku tej drugiej opcji. W miarę jak AI poprawia percepcję i mowę, twarz staje się najważniejszym komponentem robota – to ona ma budować zaufanie i sprawiać, że obecność maszyny w naszym otoczeniu stanie się czymś oczywistym.
Czytaj też: Titan 01 kopiuje ludzkie ruchy w ułamku sekundy. Topornie poruszające się maszyny odejdą do lamusa?
Wydaje mi się, że obie strony mają trochę racji, jednak ja zastanawiam się nad czymś innym – czy naprawdę chcemy, by roboty przypominały nas samych do takiego stopnia, że nie będziemy mogli rozróżnić, czy rozmawiamy z człowiekiem, czy maszyną? Na pewno takie roboty, które potrafią odwzajemnić uśmiech i zrozumieć nasz nastrój, znajdą swoje zastosowania w niektórych usługach, ale osobiście nie chciałabym chyba mieć w domu tak realistycznej maszyny udającej człowieka.
Źródło: X
