Przez ostatnie trzy lata międzynarodowy zespół pod kierunkiem uczonych z Caltech pracował nad stworzeniem platformy zdolnej do adaptacji w różnych warunkach. Efektem ich pracy jest system X1 łączący humanoidalnego robota z dronem, który może się przemieszczać na wiele sposobów. Współpraca między ośrodkami badawczymi pokazuje, jak globalne konsorcja mogą przyspieszać rozwój zaawansowanych technologii.
System X1 to duet idealny: robot i dron w jednym
Podstawę całego systemu stanowi zmodyfikowany humanoid G1 chińskiej firmy Unitree Robotics. Co ciekawe, ten robot nie naśladuje po prostu ludzkich ruchów – uczy się chodzić wykorzystując modele fizyczne, co pozwala mu dostosowywać się do różnych typów terenu. Dodatkowo opanował sztukę utrzymywania równowagi z dodatkowym obciążeniem na plecach, co nie jest prostym zadaniem nawet dla zaawansowanych maszyn.
Czytaj też: Fourier GR-3 to pierwszy robot, którego przytulisz
Drugim kluczowym elementem jest dron M4 opracowany przez zespół z Caltech. Tutaj kryje się prawdziwa innowacja – urządzenie potrafi nie tylko latać, ale także przekształcać się w pojazd jezdny dzięki obracającym się osłonom wirników. Taka konfiguracja pozwala na płynne przechodzenie między różnymi trybami poruszania się w zależności od napotkanych przeszkód.

W lipcu tego roku wprowadzono ulepszenia do systemu M4, implementując zaawansowany kontroler lotu o nazwie Saluki opracowany przez Technology Innovation Institute z Abu Zabi. To rozwiązanie znacząco poprawiło precyzję sterowania i umożliwiło wykonywanie skomplikowanych manewrów w czasie rzeczywistym.
Praktyczny test przeprowadzony na kampusie Caltech dobrze zilustrował możliwości całego systemu. Humanoid przeniósł drona do wyznaczonego miejsca, a następnie wypuścił go do samodzielnej akcji. Dron poradził sobie nawet z tak nietypowymi przeszkodami jak staw z żółwiami, przełączając się między jazdą a lotem w zależności od potrzeb.
Choć prezentowane możliwości robota są imponujące, prawdziwym wyzwaniem będzie przeniesienie tej technologii z kontrolowanych warunków kampusu do rzeczywistych środowisk. Kwestie bezpieczeństwa i niezawodności wciąż wymagają dopracowania, szczególnie jeśli myślimy o zastosowaniach w sytuacjach kryzysowych.
W najbliższych planach rozwoju znajduje się wyposażenie całego systemu w zaawansowane sensory, w tym lidary, kamery i dalmierze. Prace trwają także nad implementacją algorytmów opartych na uczeniu maszynowym, które mają umożliwić robotom nawigację i adaptację do otoczenia w czasie rzeczywistym.
Moim zdaniem najciekawszy aspekt tego projektu nie leży w samej technologii, ale w zmianie podejścia do projektowania robotów. Zamiast tworzyć wyspecjalizowane maszyny do konkretnych zadań, naukowcy pracują nad uniwersalnymi platformami zdolnymi do adaptacji. To podejście, choć obiecujące, wciąż musi udowodnić swoją praktyczną przydatność poza środowiskiem laboratoryjnym.