Autopilot lata lepiej niż człowiek. Ale czy umie “mądrze” panikować?

Kiedy wszystko działa zgodnie z planem, autopilot jest po prostu lepszy: nie męczy się, nie mruga, trzyma parametry z żelazną precyzją, potrafi też wylądować tam, gdzie człowiek widzi tylko “mleko”. Problem zaczyna się wtedy, gdy świat przestaje być idealny – czujniki się mylą, automatyka zmienia tryby, a załoga musi w kilka sekund zrozumieć, co naprawdę dzieje się z samolotem. I wtedy wraca pytanie: skoro autopilot lata lepiej niż człowiek, to czy potrafi reagować jak człowiek?
...

Dzisiejsza automatyka pokładowa to nie magiczny “przycisk autopilota”, tylko cały ekosystem: komputerowe układy sterowania lotem, zarządzanie ciągiem (autothrust/autothrottle), systemy prowadzenia po trasie (FMS), a do tego cała warstwa ochron i ograniczeń – szczególnie w samolotach fly-by-wire. W normalnych warunkach autopilot nie tyle “zastępuje pilota”, co realizuje bardzo konkretną supermoc: bezbłędne wykonywanie powtarzalnych zadań w świecie, w którym większość lotu jest… powtarzalna.

Czytaj też: Następca Concorde’a wchodzi do służby. Global 8000 to najszybszy cywilny samolot, jaki możesz dziś kupić

Najbardziej widowiskowe są automatyczne lądowania. Autoland to procedura i system zdolny do pełnej automatyzacji fazy podejścia i przyziemienia, gdy piloci przechodzą w tryb nadzoru i są gotowi przerwać podejście, jeśli cokolwiek pójdzie nie tak. To nie magia: zanim system dostanie “zielone światło”, samolot wykonuje serię autotestów, sprawdzając, czy wszystkie elementy układanki są wystarczająco zdrowe, by w ogóle dopuścić automatyczne lądowanie w najtrudniejszych kategoriach podejścia.

To właśnie ta logika – rygor trybów, redundancje, testy przed krytyczną fazą – sprawia, że autopilot bywa lepszy od człowieka w tym, co da się opisać procedurą. Tyle że lotnictwo jest również sztuką radzenia sobie z sytuacjami, których nie da się opisać jedną procedurą.

Reagować jak człowiek – co to właściwie znaczy?

W języku potocznym brzmi to jak pochwała intuicji: człowiek “wyczuwa”, “domyśla się”, “łączy kropki”. W języku inżynierii bezpieczeństwa to bardziej precyzyjne zestawy umiejętności.

Czytaj też: Samoloty przyszłości będą zaskakująco ciche. Przesądzi o tym futurystyczna technologia

Człowiek potrafi działać przy niepełnej informacji, tworzyć hipotezy i je porzucać, gdy pojawiają się nowe dane. Potrafi rozpoznać, że wskaźnik kłamie, bo “nie pasuje do reszty świata”. Potrafi też zmienić cel: przestać optymalizować lot i zacząć optymalizować przeżycie – nawet jeśli oznacza to decyzję “niewygodną” dla procedur, jak natychmiastowe przerwanie podejścia, odejście na drugi krąg czy awaryjne lądowanie w najbliższym sensownym miejscu.

Autopilot w wielu sytuacjach może zastąpić człowieka /Fot. Unsplash

Problem w tym, że człowiek ma też cechy, których automatyka nie ma, ale za to miewa swoje odpowiedniki: efekt zaskoczenia (startle), stres, błędy komunikacji, przecenianie tego, co “wydaje się” działać. Wypadki i incydenty pokazują, że największe ryzyko często nie rodzi się z samej automatyki – tylko z interakcji człowieka z automatyką.

Jednym z najbardziej klasycznych problemów jest “mode confusion” – sytuacja, w której pilot myśli, że automatyka działa w jednym trybie, a tak naprawdę działa w innym. To nie jest detal interfejsu. W kokpicie współczesnego odrzutowca “tryb” zmienia sens tego samego pokrętła, tego samego polecenia, a nawet tego samego odczytu. NASA od lat opisuje to jako efekt złożoności systemów o wielu poziomach automatyzacji i wielu stanach, gdzie łatwo o rozjazd między mentalnym modelem załogi a rzeczywistym stanem systemu.

Do tego dochodzi dobrze znany paradoks: automatyzacja poprawia wyniki i obniża obciążenie, ale może pogarszać czujność. W badaniach z udziałem zawodowych pilotów wyższy poziom automatyzacji wiązał się z lepszą “wydajnością lotu” i niższym mentalnym wysiłkiem, ale jednocześnie ze spadkiem uważności na podstawowe wskazania, w tym na elementy krytyczne dla kontroli toru lotu i parametrów silników.

Krótko mówiąc: autopilot może latać jak maszyna, ale człowiek, który ma go nadzorować, bywa spychany w rolę “monitora”, który w kryzysie musi w sekundę stać się znów “pilotem w rękach”.

Gdy automatyka odpuszcza

Tragiczny lot Air France 447 stał się podręcznikowym przykładem tego, co dzieje się, gdy automat przestaje być tarczą, a staje się nagłym brakiem podpórki. W skrócie: przejściowe problemy z danymi prędkości (związane z oblodzeniem sond) doprowadziły do rozłączenia autopilota, a załoga w warunkach wysokiego pułapu i stresu nie zdołała odzyskać prawidłowej kontroli nad samolotem. Analizy akcentują mieszankę: degradację automatyzacji, niejednoznaczną informację dla załogi i błędy ludzkie oraz współpracę w kokpicie.

Czytaj też: W tym miejscu rozstrzygnie się przyszłość lotnictwa. Nie uwierzysz w te silniki nowej generacji

To ważne w kontekście pytania “czy autopilot reaguje jak człowiek”, bo pokazuje coś przewrotnego: kiedy autopilot znika, człowiek nie wraca automatycznie do trybu “spokojnego mistrza ręcznego pilotażu”. Wraca do trybu “człowieka” – z psychologią, zaskoczeniem i presją czasu.

Samolot to wciąż najbezpieczniejszy środek transportu /Fot. Unsplash

Dlatego po takich zdarzeniach regulatorzy i branża mocniej naciskają na trening radzenia sobie z upsetami (UPRT) oraz na utrzymywanie kompetencji manualnego latania jako realnej umiejętności awaryjnej, a nie tylko elementu egzaminu. ICAO opisuje to jako systemowe podejście do zapobiegania i odzyskiwania kontroli w sytuacjach odbiegających od normy.

W samolotach fly-by-wire częścią filozofii bezpieczeństwa są ograniczenia i protekcje obwiedni lotu: system ma minimalizować ryzyko przeciągnięcia, nadmiernych przechyłów, przekroczenia dopuszczalnych parametrów. Airbus opisuje ideę wprost: ochrona obwiedni ma dać najlepszą kontrolę i osiągi, a jednocześnie zmniejszać ryzyko utraty kontroli czy przeciążenia konstrukcji.

Ale tu znów pojawia się “ludzki” aspekt. Protekcje są zależne od trybów i od tego, czy system jest w stanie ufać czujnikom. Gdy awarie się kumulują, logika sterowania może przechodzić w tryby o mniejszych ochronach, a w skrajnym przypadku w tryb niemal bezpośredni. To konsekwentna inżynieria: samolot ma pozostać sterowalny nawet przy degradacji systemów, ale pilot musi rozumieć, co dokładnie się zmieniło. 

Z perspektywy pytania z tytułu: autopilot może “latać lepiej”, bo trzyma się matematyki i ograniczeń. Człowiek “reaguje jak człowiek”, bo potrafi złamać rutynę – ale musi wiedzieć, kiedy rutyna przestała obowiązywać.

A może jednak autopilot zaczyna reagować bardziej “po ludzku”?

W ostatnich latach pojawia się kolejny etap: automatyka projektowana nie tylko na “nominał”, ale też na częściową odporność na awarie i błędy czujników. Airbus opisywał np. rozwój autopilota zdolnego kompensować pewne awarie systemów i czujników i utrzymywać kontrolę, a następnie rozszerzanie tej zdolności na kolejne platformy.

Czytaj też: Naukowcy zbudowali sztuczne oko inspirowane owadami. Drony dostaną zmysł, który trudno będzie zaskoczyć

Równolegle – głównie w świecie bezzałogowców i nowej mobilności powietrznej – rośnie nacisk na tzw. contingency management: architektury, które mają wykrywać, klasyfikować i “decydować” o reakcji w sytuacjach poza normalnym scenariuszem lotu. NASA publikuje prace o pokładowym podejmowaniu decyzji w lotach nominalnych i awaryjnych dla małych systemów bezzałogowych, a także o samym pojęciu zarządzania sytuacjami awaryjnymi jako zdolności planowania, wyboru i wykonania odpowiedniej reakcji w oparciu o kontekst i ryzyko. 

To brzmi jak “reakcja jak człowiek” – ale z istotną różnicą: człowiek w kryzysie często działa na bazie ogólnej wiedzy o świecie i intencji (“chcę uratować ludzi”), a system autonomiczny działa na bazie formalnych kryteriów bezpieczeństwa i danych, które ma.

Dlaczego “ludzkie” reakcje są trudne do zautomatyzowania

Są trzy fundamentalne przeszkody, o których branża mówi mniej efektownie niż w filmach o autonomii.

Pierwsza to rzadkość krytycznych zdarzeń. Autopilot jest genialny w tym, co zdarza się często i co da się dobrze opisać. Najtrudniejsze przypadki są rzadkie, wieloczynnikowe i czasem “brzydkie” – a to najgorsze środowisko do uczenia, walidowania i certyfikowania zachowania.

Gdzie są granice automatyki we współczesnym lotnictwie? /Fot. Unsplash

Druga to problem zaufania do danych. Gdy czujniki są spójne, automatyka jest królem. Gdy czujniki zaczynają się rozjeżdżać, człowiek może użyć “zdrowego rozsądku” i dodatkowych sygnałów. System musi mieć formalny sposób, by rozstrzygnąć, komu wierzyć – a lotnictwo to dziedzina, w której “zgaduj” nie jest strategią.

Trzecia to certyfikacja i odpowiedzialność. W lotnictwie pasażerskim nie wystarczy, że coś zwykle działa zwykle. Trzeba wykazać, jak działa w całej przestrzeni stanów, jak przechodzi w degradacje, jak informuje człowieka i jak człowiek ma to zrozumieć. Dlatego dyskusje o automatyzacji wracają do tematów czynników ludzkich i błędnych założeń w analizach bezpieczeństwa – zwłaszcza gdy system ma wpływać na tor lotu w sposób, który zaskakuje załogę. 

Więc czy autopilot potrafi reagować jak człowiek?

Jeśli przez “jak człowiek” rozumiemy refleks, improwizację i “intuicję” – nie, i być może nie powinien. Intuicja bywa genialna, ale bywa też katastrofalna. Autopilot ma inne zadanie: być przewidywalny, sprawdzalny i odporny na część ludzkich słabości.

Jeśli jednak “jak człowiek” rozumiemy zarządzanie nieoczekiwanym – wykrycie, że sytuacja wyszła poza scenariusz, przełączenie priorytetów, wykonanie bezpiecznej strategii awaryjnej i jasne zakomunikowanie tego załodze – to lotnictwo właśnie w tę stronę idzie. Tyle że nie poprzez budowanie “elektronicznego pilota z intuicją”, ale poprzez bardziej odporne systemy, lepsze zarządzanie degradacją, oraz projektowanie automatyki i treningu jako jednego układu naczyń połączonych. EASA wprost zachęca do utrzymywania równowagi między użyciem automatyzacji a ręcznymi umiejętnościami pilota, potrzebnymi wtedy, gdy automatyka zawiedzie lub zostanie odłączona.

Najbardziej realistyczna odpowiedź brzmi więc tak: autopilot może latać lepiej niż człowiek, ale “reagowanie jak człowiek” nie jest jedną funkcją do zaimplementowania. To relacja między maszyną a człowiekiem – i to, czy w chwili kryzysu oboje rozumieją tę samą historię o tym, co właśnie dzieje się z samolotem.

Napisane przez

Sławomir Puławski

Redaktor NaczelnyAudiofil, kinomaniak, gracz gier wszelakich i mól książkowy w jednym. Poza tym, chcąc nie chcąc, wykrywacz wszelkich niespotykanych bug’ów w grach. Poznawanie nowych obszarów rzeczywistości, pomysłów na urozmaicenie życia sobie i innym oraz przeobrażanie ich w kolejne projekty to moja pasja, szczególnie gdy łączy się to z nadawaniem nowego wymiaru rzeczom i sprawom, które otaczają nas na co dzień.