Przełom został zaprezentowany podczas konferencji NVIDIA GTC w Kalifornii, gdzie firmy RealSense i LimX Dynamics pokazały, jak dzięki zaawansowanej percepcji 3D maszyny zyskują cyfrowy odpowiednik ludzkiego kory wzrokowej. Co ważniejsze, to nie tylko kwestia lepszej kamery, bo w grę wchodzi integracja systemów głębi z potężnymi algorytmami pozycjonowania, które pozwalają robotom na autonomiczną i, co najważniejsze, bezpieczną egzystencję wśród ludzi.
Nowy “mózg” wizualny. Dlaczego 2D to za mało dla robota?
Tradycyjne systemy nawigacji, które znamy chociażby z domowych robotów sprzątających, opierają się głównie na 2D LiDAR i enkoderach kół. W płaskim salonie to wystarczy, ale dla robota kroczącego na dwóch nogach to niestety ślepa uliczka. Humanoidy poruszają się w pełnym trójwymiarze – każdy ich krok zmienia punkt styku z podłożem, a każda nierówność terenu, stopień czy krawężnik wymaga natychmiastowej korekty balansu. Aby robot mógł pracować ramię w ramię z człowiekiem, jego percepcja musi wykraczać poza proste wykrywanie przeszkód.
Rozwiązanie zaprezentowane przez RealSense łączy gęste mapowanie głębi z technologią NVIDIA cuVSLAM (Simultaneous Localization and Mapping). Wiem, że to raczej nikomu nic nie mówi, więc prościej mówiąc – robot nie tylko widzi, co jest przed nim, ale buduje w swojej pamięci precyzyjną mapę 3D otoczenia, śledząc jednocześnie własną pozycję z milimetrową dokładnością. Jak zauważył Nadav Orbach, CEO RealSense, percepcja w tym wydaniu to odpowiedzialność – musi ona działać jak kora wzrokowa, umożliwiając przewidywalny i płynny ruch, który my, ludzie, będziemy w stanie intuicyjnie zinterpretować i poczuć się przy maszynie bezpiecznie.
Czytaj też: W Chinach powstaje szkoła dla robotów. Potężna baza danych ożywi humanoidy
Dzięki temu połączeniu humanoidy LimX Dynamics potrafią teraz wykonywać zadania, które dotąd uchodziły za ryzykowne: samodzielnie wchodzą po schodach, wykrywają nagłe zmiany wysokości podłoża i omijają dynamiczne przeszkody, takie jak przechodzący ludzie czy przemieszczany sprzęt magazynowy. Jeśli ktoś niespodziewanie wejdzie robotowi w drogę, system planowania ścieżki reaguje natychmiastowo, dostosowując trasę bez utraty stabilności.
Od symulacji do rzeczywistości — wyzwanie “Sim-to-Real”
Kluczem do tak szybkiego postępu okazało się środowisko NVIDIA Isaac Lab. Zamiast ryzykować uszkodzenie drogich prototypów podczas nauki chodzenia w fizycznym laboratorium, LimX Dynamics wytrenowało swoje roboty w fotorealistycznej symulacji. Wykorzystano do tego uczenie przez wzmacnianie, gdzie maszyna w cyfrowym świecie zaliczyła miliony upadków i błędnych decyzji, zanim w ogóle postawiła pierwszy krok na prawdziwym betonie.
Czytaj też: Mechaniczny rumak z Chin. DEEP Robotics świętuje Rok Konia w wielkim stylu
Ten proces pozwolił pokonać tzw. barierę “sim-to-real” – moment, w którym teoretyczna wiedza z komputera musi zderzyć się z niedoskonałościami fizycznego świata, takimi jak tarcie, poślizg czy zmienne oświetlenie. Robot, który pojawił się na scenie NVIDIA GTC, był już “doświadczonym” nawigatorem, który trudne manewry opanował w wirtualnej rzeczywistości. To drastycznie przyspiesza proces wdrażania humanoidów do realnej pracy w fabrykach czy logistyce, bo programiści mogą testować najbardziej ekstremalne scenariusze bez obaw o koszty napraw.
Źródło: Business Wire
