Mężczyzna robi zdjęcie smartfonem, z którego wyłania się hologram aparatu.

AI: rewolucja w smartfonach

Co umie dziś, co będzie umiała jutro?

Z chmury do kieszeni

Zbudowanie wspomnianych na początku „akceleratorów AI” zmieniło sytuację. Nagle okazało się, że wykonywane dotychczas na zdalnych serwerach zadania można zrealizować bezpośrednio w smartfonie. Rozwiały się więc obawy związane z prywatnością, w końcu nie każdy chce, by jego zdjęcia czy wrażliwe dane były gromadzone gdzieś tam w chmurze.

I tak oto Apple mogło w nowej generacji iPhone’ów zastosować biometryczne logowanie za pomocą rozpoznawania twarzy, zajmuje się tym sieć neuronowa działająca w Neural Engine, odpowiadająca też za sterowanie animowanymi emoji przyjmującymi wyraz twarzy użytkownika. Idzie na to 600 GFLOPS-ów (miliardów operacji zmiennoprzecinkowych na sekundę) mocy obliczeniowej zapewniane przez akcelerator sztucznej inteligencji firmy z Cupertino. Twórcy aplikacji także mogą z niej skorzystać – Apple udostępniło bibliotekę Core ML, która choć działa też na starszym sprzęcie bez Neural Engine, dopiero na iPhone’ie X pokazuje pazury.

600 GFLOPS-ów to jednak wcale nie tak dużo. Amerykańska firma dała się prześcignąć Chińczykom, a konkretnie Huawei, które wyrasta w tej chwili na lidera badań nad mobilnym AI i ich zastosowaniem. Opracowany przez producenta moduł Neural Processing Unit (NPU) jest częścią procesora Kirin 970 zastosowanego w smarfonach Huawei Mate 10 i Honor View 10. Dzięki mocy obliczeniowej na poziomie 1,92 TFLOPS-a (bilionów operacji zmiennoprzecinkowych na sekundę) NPU w Kirinie 970 ma być w stanie przetwarzać do dwóch tysięcy obrazów na sekundę, dwudziestokrotnie więcej, niż byłoby możliwe za pomocą procesora głównego.

Dzięki integracji z CPU i ogromnej mocy obliczeniowej, działanie NPU Huawei nie jest ograniczone do jednej dziedziny, ale pojawia się w niemal każdym aspekcie działania smartfonu. Może ono rozpoznawać obiekty i kilkanaście rodzajów scen przed obiektywem, dostosowując do nich optymalne ustawienia aparatu. Układ pozwala też na wydłużenie czasu pracy baterii dzięki zmniejszeniu zużycia energii i zoptymalizowanemu wykorzystaniu sprzętowych zasobów. NPU wykorzystano również w preinstalowanej w smartfonach aplikacji tłumacza Microsoftu (aby przyśpieszyć translację) oraz w usuwaniu szumu z połączeń głosowych.

AI w aparacie Huawei P20 (fot. CHIP)

W siedzibie Huawei w Shenzhen pytaliśmy dyrektora zarządzającego produktami AI koncernu o kierunki rozwoju zastosowania elementów sztucznej inteligencji w telefonach. Specjalista powiedział CHIP-owi, że najważniejsze z nich to dążenie do naturalnej interakcji pomiędzy użytkownikiem a urządzeniem. Chodzi o jak najszersze wykorzystanie interfejsów głosowych i o budowę platformy przewidywania potrzeb użytkownika. Obecnie, kiedy pojawia się potrzeba, na przykład musimy znaleźć połączenie komunikacyjne w obcym mieście, szukamy aplikacji, które oferują potrzebne nam funkcje, wybieramy odpowiednią i instalujemy ją, a następnie uczymy się nią posługiwać. Wyposażony w AI system przyszłości na podstawie rozproszonych informacji, takich jak kupione bilety lotnicze, rezerwacje hoteli, wpisy w kalendarzu, tematy wyszukiwań czy korespondencja, przewidziałby naszą potrzebę, samodzielnie ściągnął potrzebne bazy danych i funkcje, a następnie sprawdził trasy między hotelem i miejscem, gdzie mamy umówione spotkanie. Co więcej, nie musielibyśmy uczyć się używania nowych funkcji, bo wystarczyłoby zadać pytanie AI dokładnie tak, jak pytamy osobę w informacji – w naturalnym języku.

W bliskiej perspektywie Huawei za najważniejsze uważa wykorzystanie twórczego potencjału społeczności, dlatego dało zewnętrznym developerom możliwość wykorzystania NPU Kirina 970 (i zapewne jego następców) do akceleracji operacji związanych z algorytmami SI, udostępniając biblioteki API HiAI. Podobnie sprawę widzi Google. Wraz z Androidem 8.1 zadebiutował interfejs Neural Networks API, który pozwala twórcom aplikacji korzystać z dowolnych modeli NPU.

Od inteligencji do świadomości

A wracając na smartfonowy rynek, myślę, że gdyby producenci smartfonów mówili w innych językach niż angielski czy chiński, pewnie odmienialiby już określenie „sztuczna inteligencja” przez wszystkie możliwe przypadki. Zamiast tego ewidentnie nadużywają pojęcia, doprowadzając do sytuacji, w której staje się to marketingową nowomową. Problem widać zwłaszcza w przypadku tańszych smartfonów, które wszystkie nagle nabrały „sztucznej inteligencji” tylko dlatego, że ich aplikacja kamery „inteligentnie” upiększa zdjęcia, zwykle przez nałożenie kilku prostych filtrów. Trudno jednak spodziewać się, by było inaczej. Na razie w tanich urządzeniach sprzętowej akceleracji AI nie ma, to przywilej dla tych z górnej półki.

Jeden z przedstawicieli górnej półki z faktyczną SI: P20 Pro (fot. CHIP)

Analitycy Gartnera przewidują, że do 2020 roku 80% sprzedawanych smartfonów będzie korzystało z procesorów wspomagających algorytmy sztucznej inteligencji. Można być niemal pewnym, że stanie się to przede wszystkim za sprawą projektu Trillium, czyli rozwijanej przez konsorcjum ARM platformy maszynowego i głębokiego uczenia. A że ARM licencjonuje później innym producentom swoje technologie w przystępnych cenach, takie rozwiązania będą mogły trafić nawet do tych tańszych smartfonów. Wtedy przyjdzie czas, żeby ponownie zastanowić się nad samą koncepcją mobilnych systemów operacyjnych, wciąż w dużym stopniu wymagających obsługi ze strony użytkownika.

A nie tak powinno być. Mając urządzenie „uzbrojone” w arsenał czujników, zdolne do uczenia się i wnioskowania, chcielibyśmy, by samo ustawiało się optymalnie do warunków, w jakich się znajduje. Innymi słowy, byłoby to urządzenie świadome swoich stanów, stosujące inteligencję do osiągania wyznaczonych mu celów. Taki świadomy i inteligentny smartfon powinien dobierać odpowiedni rodzaj połączenia sieciowego, jaki w danym momencie jest najlepszy, powinien sam wiedzieć, że po znalezieniu się w aucie należy połączyć się z pokładowym systemem multimedialnym. Chcielibyśmy też, aby sam wiedział, że trzeba wyciszyć dzwonek rozmów przychodzących, gdy idziemy do kina, i że trzeba odciąć interfejsy radiowe, kiedy rozsiedliśmy się w fotelu samolotu. Oczywiście taki inteligentny i świadomy smartfon byłby też platformą dla smart asystenta, pomagającego nam załatwiać codzienne sprawy – ale to już temat na zupełnie oddzielny tekst.

Jedno jest w tym wszystkim istotne: do tej pory smartfony kręciły się wokół aplikacji, jakie można na nich uruchomić. Wraz z pojawieniem się w naszych bystrych telefonach sztucznej inteligencji ciężar z coraz to nowych aplikacji może zostać przeniesiony na komunikację między człowiekiem a maszyną. Fascynujące, prawda? | CHIP


Programista, Jędrzej Fulara

O autorach:

Jędrzej Fulara – architekt oprogramowania i lider zespołu programistów w firmie Sparkbit. Zajmował się projektami obejmującymi obszary przetwarzania języka naturalnego, sieci semantycznych i monitorowania danych w czasie rzeczywistym. Doktor informatyki Uniwersytetu Warszawskiego w dziedzinie analizy statycznej kodu oraz weryfikacji oprogramowania.

Konstanty Młynarczyk – redaktor naczelny portalu CHIP, z wcześniejszym magazynem związany od 2007 roku. Branżą sprzętu mobilnego zajmuje się od blisko 20 lat. Jego główne dziennikarskie specjalizacje to smartfony i technologie przyszłości.