SI

SI, by się uczyć, wymaga coraz więcej energii elektrycznej

Firma Open AI opublikowała dane na temat wykorzystania mocy przez algorytmy sztucznej inteligencji w ciągu ostatnich 60 lat. W ostatnich 7 latach widać wyraźny wzrost.

Od 2012 roku zapotrzebowanie na moc obliczeniową do trenowania algorytmów sztucznej inteligencji co roku zwiększa się siedmiokrotnie. To dość niezwykły trend, biorąc pod uwagę, że przez poprzednie 50 lat zapotrzebowanie na moc obliczeniową dla rozwiązań opartych na SI rosły zgodnie z prawem Moore’a, czyli podwajało się co dwa lata. Od 2012 roku nie jest to już aktualne. Od tego momentu zapotrzebowanie na moc obliczeniową do trenowania największych modeli SI podwaja się co 3,4 miesiąca.

Reklama

Przez ostatnie 7 lat moc obliczeniowa wykorzystywana przez SI zwiększyła się aż 300 tysięcy razy (sic!). Oczywiście, w związku z tym pojawiają się pytania dotyczące wpływu prac nad SI na środowisko. Na ten problem zwrócili w swoim badaniu uwagę naukowcy z Uniwersytetu w Massechusetts. Okazuje się, że wytrenowanie zaledwie jednej SI odpowiada śladowi węglowemu równemu 284 ton węgla. To tyle samo ile wyemituje 5 samochodów spalinowych przez cały okres eksploatacji włączając w to emisję podczas produkcji aut.

SI
Zapotrzebowanie na moc obliczeniową do trenowania SI zwiększyło się 300 tysięcy razy w ciągu ostatnich 7 lat (graf. OpenAI)

Zdaniem OpenAI, trend, który obserwujemy w ostatnich latach, prawdopodobnie się nie zatrzyma. Świadczą o tym kolejne rozwiązania projektowane w oparciu o algorytmy uczenia maszynowego, takie jak stworzony przez firmę DeepMind program AlphaStar, czy modele zajmujące się językiem naturalnym GPT-2 i BERT. Pierwszy to generator tekstu OpenAI, natomiast ostatni wykorzystuje Google do prezentowania użytkownikom lepszych wyników wyszukiwania. | CHIP

1
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.