Twórca RISC: Czas na zmianę architektury i nowe języki programowania

Pierwotnie prawo Moore’a zakładało, że co 2 lata podwaja się liczba tranzystorów w mikroprocesorach. Później przyjęło się, że w tym samym okresie wzrasta dwukrotnie moc obliczeniowa. To zaś powodowało, że średnio co 18 miesięcy ludzie kupowali nowe komputery, ponieważ skok wydajnościowy był bardzo znaczący. Od kilku lat tak się jednak nie dzieje. Obecnie wzrost wydajności wynosi ok. 3% w skali roku, a co za tym idzie sprzedaż pecetów ciągle spada. Czas używania sprzętu elektronicznego się wydłuża, co widać też doskonale w branży smartfonów, która w tym roku po raz pierwszy w historii także spadła o 9%. Najwyższy czas, by przyjąć do wiadomości, że prawo Moore’a nie jest już aktualne we współczesnych czasach. David Patterson uważa jednak, że w tym zjawisku można dostrzec pozytywny trend.
procesor
procesor

David Patterson był kierownikiem projektu RISC na Uniwersytecie Berkeley (fot. Peg Skorpinski)

Zdaniem inżyniera, taka sytuacja otwiera szansę na zaprojektowanie nowej architektury, która wywoła na skostniałym rynku rewolucję. Przypomnijmy, że współczesne procesory projektowane są zgodnie z architekturą RISC i CISC. — Nagrody Turinga tylko czekają na odbiór. Wystarczy, że ludzie będą teraz pracować nad tymi rzeczami — twierdzi ekspert. — Stoimy u progu złotej ery komputerowej architektury.

Patterson uważa, że konieczne jest opracowanie także nowych języków programowania, które rozwiążą aktualne problemy informatyczne i będą działały znacznie szybciej niż obecnie. Jako przykład podaje kod Pythona, który jest 50-krotnie wolniejszy od takiego samego programu napisanego w języku C. Gdyby dodać do tego różne techniki optymalizacji i dodatkowe usprawnienia, według współtwórcy architektury RISC, można osiągnąć nawet 1000 razy lepszą wydajność kodu.

Prawo Moore’a, czyli liczba tranzystorów na przełomie kolejnych lat (fot. Wikipedia)

Od strony sprzętowej, Patterson podaje przykład uczenia maszynowego, w którym upatruje właśnie przyszłość komputerów. Patterson zauważył, że obecnie aż 45 startupów pracuje nad architekturą sprzyjającą projektowaniu sieci neuronowych. Poza nimi także najwięksi producenci w branży pracują nad swoimi rozwiązaniami. Google ma już swój TPU (Tensor Processor Unit), na których działają Google Search, Street View i tłumacz Translate. Nvidia zbudowała w tym roku superkomputer DGX-2 osiągający prędkość 2 petaflopsów, właśnie pod kątem zadań związanych z sieciami neuronowymi i SI. Intel z kolei w 2016 roku kupił Nervanę specjalizującą się w dziedzinie głębokiego uczenia maszynowego. Dzięki temu na tegorocznych targach CES mógł zaprezentować ich wspólne dzieło – nowy typ procesora naśladujący działanie neuronów. Intel przywiózł tam też swój 49-kubitowy procesor kwantowy.

Tylko kwestią czasu pozostaje, kiedy przynajmniej część z nowych rozwiązań stanie się powszechnie dostępne dla użytkownika indywidualnego. Z dobrodziejstw uczenia maszynowego i SI korzystamy już teraz, choć ciągle w niewielkim stopniu. SI jest obecne chociażby w asystentach głosowych, zautomatyzowanych tłumaczach Google, Microsoftu i Facebooka czy w smartfonach iPhone X i Huawei P20, które są wyposażone w koprocesory neuralne (NPU). | CHIP