Tysiąckrotnie lepsza wydajność energetyczna w AI. Nowy procesor CN101 łamie wszelkie bariery

Gdy branża sztucznej inteligencji mierzy się z rosnącymi kosztami energii, pojawia się potencjalne rozwiązanie. Firma Normal Computing ogłosiła ukończenie prac nad pierwszym na świecie procesorem termodynamicznym CN101. To niezwykłe osiągnięcie, które jeszcze niedawno wydawało się jedynie teoretyczną koncepcją. Nowy układ zasadniczo różni się od tradycyjnych procesorów. Zamiast walczyć z naturalną losowością i szumem, czyni je podstawą swojego działania. Pomysł brzmi obiecująco, szczególnie gdy branża AI szuka sposobów na ominięcie ograniczeń obecnej technologii krzemowej.
...

Gdy branża sztucznej inteligencji mierzy się z rosnącymi kosztami energii, pojawia się potencjalne rozwiązanie. Firma Normal Computing ogłosiła ukończenie prac nad pierwszym na świecie procesorem termodynamicznym CN101. To niezwykłe osiągnięcie, które jeszcze niedawno wydawało się jedynie teoretyczną koncepcją. Nowy układ zasadniczo różni się od tradycyjnych procesorów. Zamiast walczyć z naturalną losowością i szumem, czyni je podstawą swojego działania. Pomysł brzmi obiecująco, szczególnie gdy branża AI szuka sposobów na ominięcie ograniczeń obecnej technologii krzemowej. 

Zupełnie inne podejście niż klasyczne układy cyfrowe i potencjał oszczędności energetycznych 

Podczas gdy konwencjonalne procesory opierają się na precyzyjnych operacjach zer i jedynek, CN101 wykorzystuje fizykę termodynamiczną. Wieloelementowa struktura analogowa startuje z częściowo losowych stanów początkowych, by następnie stabilizować się w rozwiązaniu problemu poprzez osiąganie równowagi energetycznej. To podejście traktuje fluktuacje termiczne i kontrolowane rozpraszanie energii nie jako problem, lecz jako integralną część procesu obliczeniowego. 

Czytaj też: Nowatorskie elektrolity zmienią proces ładowania. Już nie będziesz musiał wybierać jednej opcji 

Taka filozofia szczególnie dobrze sprawdza się w zadaniach probabilistycznych. Naturalnym środowiskiem dla tego typu obliczeń są między innymi wnioskowanie bayesowskie, symulacje stochastyczne czy próbkowanie dyfuzyjne stosowane w modelach generatywnych. Najbardziej intrygujące są deklaracje dotyczące efektywności. Normal Computing twierdzi, że ich procesor osiąga do tysiąca razy lepszą wydajność energetyczną w kluczowych zadaniach AI niż obecne akceleratory. Chodzi konkretnie o operacje macierzowe fundamentalne dla uczenia maszynowego oraz próbkowanie dyfuzyjne napędzające generatywne modele obrazów. Tysiąckrotna poprawa brzmi niemal niewiarygodnie, ale gdyby się potwierdziła, mogłaby drastycznie obniżyć koszty operacyjne centrów danych. 

Czytaj też: Kwantowy skok w elektronice stał się faktem. Naukowcy mogą teraz obserwować to, co było tylko w teorii 

Aktualnie inżynierowie Normal Computing przystępują do testów praktycznych, które zweryfikują kluczowe parametry. Sprawdzą między innymi stabilność próbkowania, czas utrzymywania stanów metastabilnych oraz szybkość osiągania równowagi obliczeniowej. To odpowiedzi na fundamentalne pytania o realną użyteczność układu w długotrwałej eksploatacji i jego integrację z istniejącą infrastrukturą. 

Firma nie poprzestaje na CN101, planując już kolejne generacje. Na 2026 rok zapowiedziano model CN201 zoptymalizowany dla wyższej rozdzielczości w modelach dyfuzyjnych, a na przełom 2027/2028 roku – CN301 dla zaawansowanych systemów wideo. Wizja obejmuje heterogeniczne systemy, gdzie tradycyjne CPU i GPU współpracowałyby z układami ASIC opartymi na fizyce, każdy specjalizujący się w innych typach obliczeń. 

Czytaj też: Nvidia i AMD razem planują niestandardowe pamięci HBM4 

Pojawienie się tej technologii nie jest przypadkowe. Przemysł AI zbliża się do barier energetycznych i obliczeniowych, a plany skalowania na nadchodzące dekady wymagają niewyobrażalnego wzrostu mocy. Normal Computing, założone w 2022 roku przez doświadczonych specjalistów z Google Brain, Google X i Palantir, koncentruje się właśnie na rozwiązaniu tego problemu poprzez połączenie sprzętu i oprogramowania. CN101 stanowi praktyczny test śmiałej koncepcji. Jeśli testy potwierdzą deklarowane parametry, możemy stać u progu nowej ery w skalowaniu AI.