Sztuczna inteligencja będzie wykonywała obliczenia szybciej. Co ze zużyciem energii?

Dzięki postępom dokonanym przez naukowców z MIT sztuczna inteligencja może jeszcze szybciej wykonywać obliczenia, a korzyści mają obejmować również zużycie energii.

Rozwój uczenia maszynowego sprawia, że trenowanie coraz bardziej zaawansowanych sieci neuronowych wymaga jeszcze więcej czasu, energii i pieniędzy. W walce z tymi problemami ma pomóc tzw. analogowe głębokie uczenie, które miałoby nie tylko zapewnić możliwość szybszego wykonywania obliczeń, ale zużywać przy tym znacznie mniej energii.

Czytaj też: Nasz opis Wszechświata nie jest idealny. Sztuczna inteligencja pomoże stworzyć nową fizykę?

Dążąc do tego przełomu naukowcy wykorzystali materiał nieorganiczny. To właśnie dzięki niemu obliczenia mogą być wykonywane 1 milion razy szybciej niż dotychczas. Podobna jest również przewaga tej technologii w porównaniu do tempa osiąganego przez synapsy w ludzkim mózgu. Wykorzystanie tego materiału sprawia również, że rezystor jest wysoce energooszczędny oraz zapewnia kompatybilność z technikami produkcji krzemu. W efekcie nie powinno być problemów z popularyzacją opisywanej technologii.

Mechanizm działania urządzenia polega na elektrochemicznym wprowadzeniu najmniejszego jonu, protonu, do izolującego tlenku, aby modulować jego przewodnictwo elektroniczne. Ponieważ pracujemy z bardzo cienkimi urządzeniami, mogliśmy przyspieszyć ruch tego jonu za pomocą silnego pola elektrycznego i sprawić, że te urządzenia jonowe działają w nanosekundach. Bilge Yildiz, jedna z autorek badania

Sztuczna inteligencja jest obecnie stosowana w wielu dziedzinach codziennego życia

Jak dodają członkowie zespołu, ich propozycja – gdyby przełożyć ją na realia motoryzacyjne – nie byłaby po prostu szybszym samochodem, lecz… statkiem kosmicznym. Szczegóły w całej sprawie zostały zaprezentowane na łamach Science. Autorzy wyjaśniają, że jedną z przyczyn tego, iż analogowe głębokie uczenie zapewnia szybsze a zarazem tańsze obliczenia jest wykonywane ich w pamięci. W związku z tym ogromne ładunki danych nie są przesyłane tam i z powrotem z pamięci do procesora. Jeśli rozmiar matrycy się powiększa, procesor analogowy nie potrzebuje więcej czasu na wykonanie nowych operacji, ponieważ wszystkie obliczenia odbywają się jednocześnie.

W ludzkim mózgu uczenie się odbywa się dzięki wzmacnianiu i osłabianiu połączeń między neuronami, które określa się mianem synaps. Głębokie sieci neuronowe od dawna naśladowały takie zachowanie. W przypadku nowego procesora zwiększanie i zmniejszanie przewodności elektrycznej oporników protonowych umożliwia analogowe uczenie maszynowe. W celu zwiększenia przewodności więcej protonów trafia do kanału w rezystorze, natomiast pochłanianie protonów prowadzi do odwrotnego zjawiska. Kluczowy jest w tym przypadku elektrolit, który przewodzi protony, zarazem blokując elektrony.

Czytaj też: 3854 zmienne i problem BMW. Obliczenia kwantowe osiągnęły niebywały poziom

Powstałe programowalne rezystory znacznie zwiększają szybkość szkolenia sieci neuronowej, jednocześnie zmniejszając koszt i obniżając ilość energii potrzebnej do przeprowadzenia tego procesu. Wśród potencjalnych zastosowań tego typu rozwiązań wymienia się choćby produkcję autonomicznych samochodów, wykrywanie oszustw i analizowanie obrazów medycznych.