Peter Burke, profesor z Irvine, postanowił sprawdzić, czy generatywne modele AI potrafią stworzyć kompletny system kontroli dla drona. Wykorzystał do tego popularne narzędzia, takie jak Claude, Gemini i ChatGPT, które miały wygenerować oprogramowanie działające na miniaturowym komputerze Raspberry Pi Zero 2 W. Ten niewielki układ o wymiarach zaledwie 65 × 30 mm, wyposażony w czterordzeniowy procesor i 512 MB pamięci, stał się podstawą całego projektu.
Efektem prac jest WebGCS – autonomiczny system działający jako serwer internetowy bezpośrednio na pokładzie drona. Dzięki takiemu rozwiązaniu operator może sterować urządzeniem i śledzić jego parametry lotu przez zwykłą przeglądarkę. System oferuje mapowanie w czasie rzeczywistym, telemetrię, planowanie misji oraz mechanizmy bezpieczeństwa. Co ciekawe, pierwsze próby z Claude’em i Gemini nie powiodły się z powodu ograniczeń kontekstowych tych modeli. Dopiero czwarta iteracja z użyciem środowiska Windsurf przyniosła sukces.
Sztuczna inteligencja wygenerowała imponujące 10 tysięcy linii kodu w zaledwie 100 godzin pracy, co stanowi około 20-krotne przyspieszenie w porównaniu z tradycyjnymi metodami programistycznymi. Burke porównał te wyniki ze swoim poprzednim projektem CloudStation, nad którym ludzki zespół pracował przez cztery lata. Testy przeprowadzone zarówno na rzeczywistym dronie, jak i w środowisku symulacyjnym potwierdziły pełną funkcjonalność systemu.
Nie popadajmy jednak w entuzjazm bezrefleksyjnie. Eksperyment ujawnił poważne ograniczenia współczesnych modeli językowych. Badania wskazują na dramatyczny spadek ich wydajności przy większych kontekstach – dokładność Claude’a 3.5 Sonnet spadła z 29% do zaledwie 3% przy rozszerzeniu kontekstu z 32 tysięcy do 256 tysięcy tokenów. To oznacza, że obecne AI nie radzą sobie dobrze z projektami przekraczającymi około 10 tysięcy linii kodu. Burke musiał wielokrotnie dzielić zadanie na mniejsze fragmenty, co pokazuje, że do pełnej autonomii jeszcze daleka droga.
Hantz Févry z firmy Geolava dostrzega w tym projekcie ważny krok ku rozwojowi przestrzennej sztucznej inteligencji. Tego typu systemy mogą zrewolucjonizować branżę obrazowania lotniczego, gdzie firmy takie jak Skydio już teraz zmieniają metody skanowania środowiska. Wizja przyszłości obejmuje platformy zdolne do adaptacyjnego działania w trudnych warunkach, modyfikujące cele misji w trakcie lotu. Warto zauważyć, że Burke przez cały czas eksperymentu zachował środki ostrożności – utrzymywał tradycyjny nadajnik jako zabezpieczenie pod ludzką kontrolą.
Czytaj też: OpenAI zaszalało. GPT-OSS odpalisz na laptopie i za darmo!
To ważna lekcja dla rozwoju autonomicznych systemów, przypominająca o konieczności zachowania odpowiednich zabezpieczeń. Choć profesor żartobliwie nawiązuje do Terminatora, jego eksperyment otwiera nowy rozdział w robotyce. Na razie mówimy o autonomicznym sterowaniu dronem, ale perspektywa samoprogramujących się systemów staje się coraz bardziej realna. To fascynujące, choć wymaga uważnej obserwacji i odpowiedzialnego podejścia.
Dla mnie, człowieka wychowanego na serii Terminatora, nie trzeba mocno podpalać głowy, żebym sobie pewne scenariusze odpowiednio mocno wyobraził. Oczywiście, rzeczywistość nie jest tak czarno-biała, więc do realizacji hollywoodzkiej wersji apokalipsy nam jeszcze daleko. Ale z drugiej strony rzeczywistość pisze najdoskonalsze i najbardziej oryginalne scenariusze, więc…