Sztuczna inteligencja będzie wykonywała obliczenia szybciej. Co ze zużyciem energii?

Dzięki postępom dokonanym przez naukowców z MIT sztuczna inteligencja może jeszcze szybciej wykonywać obliczenia, a korzyści mają obejmować również zużycie energii.
Sztuczna inteligencja będzie wykonywała obliczenia szybciej. Co ze zużyciem energii?

Rozwój uczenia maszynowego sprawia, że trenowanie coraz bardziej zaawansowanych sieci neuronowych wymaga jeszcze więcej czasu, energii i pieniędzy. W walce z tymi problemami ma pomóc tzw. analogowe głębokie uczenie, które miałoby nie tylko zapewnić możliwość szybszego wykonywania obliczeń, ale zużywać przy tym znacznie mniej energii.

Czytaj też: Nasz opis Wszechświata nie jest idealny. Sztuczna inteligencja pomoże stworzyć nową fizykę?

Dążąc do tego przełomu naukowcy wykorzystali materiał nieorganiczny. To właśnie dzięki niemu obliczenia mogą być wykonywane 1 milion razy szybciej niż dotychczas. Podobna jest również przewaga tej technologii w porównaniu do tempa osiąganego przez synapsy w ludzkim mózgu. Wykorzystanie tego materiału sprawia również, że rezystor jest wysoce energooszczędny oraz zapewnia kompatybilność z technikami produkcji krzemu. W efekcie nie powinno być problemów z popularyzacją opisywanej technologii.

Mechanizm działania urządzenia polega na elektrochemicznym wprowadzeniu najmniejszego jonu, protonu, do izolującego tlenku, aby modulować jego przewodnictwo elektroniczne. Ponieważ pracujemy z bardzo cienkimi urządzeniami, mogliśmy przyspieszyć ruch tego jonu za pomocą silnego pola elektrycznego i sprawić, że te urządzenia jonowe działają w nanosekundach. Bilge Yildiz, jedna z autorek badania

Sztuczna inteligencja jest obecnie stosowana w wielu dziedzinach codziennego życia

Jak dodają członkowie zespołu, ich propozycja – gdyby przełożyć ją na realia motoryzacyjne – nie byłaby po prostu szybszym samochodem, lecz… statkiem kosmicznym. Szczegóły w całej sprawie zostały zaprezentowane na łamach Science. Autorzy wyjaśniają, że jedną z przyczyn tego, iż analogowe głębokie uczenie zapewnia szybsze a zarazem tańsze obliczenia jest wykonywane ich w pamięci. W związku z tym ogromne ładunki danych nie są przesyłane tam i z powrotem z pamięci do procesora. Jeśli rozmiar matrycy się powiększa, procesor analogowy nie potrzebuje więcej czasu na wykonanie nowych operacji, ponieważ wszystkie obliczenia odbywają się jednocześnie.

W ludzkim mózgu uczenie się odbywa się dzięki wzmacnianiu i osłabianiu połączeń między neuronami, które określa się mianem synaps. Głębokie sieci neuronowe od dawna naśladowały takie zachowanie. W przypadku nowego procesora zwiększanie i zmniejszanie przewodności elektrycznej oporników protonowych umożliwia analogowe uczenie maszynowe. W celu zwiększenia przewodności więcej protonów trafia do kanału w rezystorze, natomiast pochłanianie protonów prowadzi do odwrotnego zjawiska. Kluczowy jest w tym przypadku elektrolit, który przewodzi protony, zarazem blokując elektrony.

Czytaj też: 3854 zmienne i problem BMW. Obliczenia kwantowe osiągnęły niebywały poziom

Powstałe programowalne rezystory znacznie zwiększają szybkość szkolenia sieci neuronowej, jednocześnie zmniejszając koszt i obniżając ilość energii potrzebnej do przeprowadzenia tego procesu. Wśród potencjalnych zastosowań tego typu rozwiązań wymienia się choćby produkcję autonomicznych samochodów, wykrywanie oszustw i analizowanie obrazów medycznych.