SI sama nauczy艂a si臋 chodzi膰

Sztuczna inteligencja opanowa艂a chodzenie, bieganie, skakanie i wspinanie si臋.

DeepMind, sp贸艂ka zale偶na Google (a w艂a艣ciwie Alphabet), zajmuj膮ca si臋 pracami nad sztuczn膮 inteligencj膮, opracowa艂a algorytm, kt贸ry jest zdolny chodzi膰. C贸偶 trudnego? – powiecie. Ot贸偶 SI, stworzona przez DeepMind, wykoncypowa艂a t臋 umiej臋tno艣膰 samodzielnie, bez niczyjej pomocy.

Zesp贸艂 badaczy u偶y艂 wykorzystywanego w uczeniu maszynowym narz臋dzia typu聽reinforcement learning po to, aby opracowywana sztuczna inteligencja obmy艣li艂a metod臋 pokonania parkourowej trasy – toru pieszego z przeszkodami, dodajmy, wirtualnego toru. Reinforcement learning jest systemem edukacyjnym, opieraj膮cym si臋 o nagrody. Po偶膮dane zachowanie ucznia jest premiowane, niepo偶膮dane – nie. W jaki spos贸b sztuczna inteligencja jest w stanie oceni膰 „nagrod臋”, pozostaje zagadk膮.

Sztuczna inteligencja wizualizacja wyuczonego marszu
Ruchy awatara sztucznej inteligencji s膮 niekiedy bardzo pokraczne czy wr臋cz nieludzkie, ale skuteczne (fot. DeepMind)

Prace zwi膮zane z nauczeniem sztucznej inteligencji motoryki, kt贸r膮 ka偶dy przedstawiciel homo sapiens opanowuje w trakcie pierwszego roku 偶ycia, trwaj膮 od dawna. Tym razem jednak naukowcy postanowili sprawdzi膰, jak ich wirtualny konstrukt poradzi sobie w bardziej z艂o偶onym 艣rodowisku ni偶 r贸wna droga. Zmontowano zatem wirtualny tor parkourowy z licznymi przeszkodami i wyznaczono nagrody za post臋py w dzia艂aniu. Na najbardziej podstawowym poziomie zadanie postawione konstruktowi sztucznej inteligencji by艂o pozornie proste: „przejd藕 tras臋 najszybciej, jak to mo偶liwe”.

Szczeg贸艂y wirtualnego spaceru z udzia艂em SI zobaczycie w filmie powy偶ej. Zwr贸膰cie uwag臋 na fragment, w kt贸rym przez d艂ugi czas awatar porusza si臋 do艣膰 sprawnie, ale absolutnie nietypowo. A nawet zabawnie. To dow贸d, 偶e niekoniecznie co艣, co dla nas wygl膮da naturalnie, musi by膰 najlepszym rozwi膮zaniem.

A po co ca艂y ten wirtualny spacer? Ma pom贸c w przysz艂o艣ci opracowywa膰 roboty, kt贸re b臋d膮 umia艂y porusza膰 si臋 w ka偶dym terenie. | CHIP