Sztuczna inteligencja ma mroczną stronę, której nie znaliśmy. Aż do teraz

Po początkowym zachłyśnięciu się pozorną wspaniałością sztucznej inteligencji przyszła pora na chwilę refleksji. Coraz więcej przykładów pokazuje, że nie wszystko złoto, co się świeci, a nowe narzędzia mogą przynieść równie wiele problemów, jak korzyści. 
Sztuczna inteligencja ma mroczną stronę, której nie znaliśmy. Aż do teraz

Najnowszy rozdział badań skoncentrowanych na konsekwencjach korzystania z tzw. dużych modeli językowych, czyli LLM, ukazuje ich mroczną stronę. Piszą o niej autorzy publikacji zamieszczonej w Frontiers in Communication. Jak dowiedli w toku swoich działań, narzędzia pojawiające się na rynku – choć zapewniają wyższą skuteczność – cechują się jednocześnie zdecydowanie większą skalą emisji dwutlenku węgla. 

Czytaj też: Czy sztuczna inteligencja pozbawia nas umiejętności myślenia? Nowe badania budzą niepokój

Mówiąc krótko: postęp faktycznie ma miejsce, lecz idzie za nim ogromny środowiskowy koszt. A czy możemy sobie na niego pozwolić w świecie, w którym próbujemy redukować emisje i ograniczać postępujące zmiany klimatu? Zależność, o której mówią niemieccy naukowcy nie jest szczególnie zaskakująca. Wzrost rozmiarów modelu zwykle skutkuje jego poprawionym działaniem, które wynika z większego zapotrzebowania na energię, a co za tym idzie – większymi emisjami.

Autorzy tych ustaleń posiłkowali się danymi pochodzącymi ze śledzenia 14 różnych LLM. Zadali tym narzędziom 500 pytań wielokrotnego wyboru oraz 500 pytań otwartych, w których duże modele językowe mogły wykazać się nieco większą dozą własnej inwencji. Wnioski były dość jasne: im większe i dokładniejsze modele, pokroju DeepSeek, tym wyższa ilość dwutlenku węgla powstającego w związku z ich działaniem. Podobny związek występował w przypadku chatbotów dzielących problemy na etapy w celu ich osobnego rozwiązywania. 

Sztuczna inteligencja w postaci dużych modeli językowych staje się skuteczniejsza, ale idą za tym rosnące emisje

Co ciekawe, pojawiło się kilka wyjątkowo pozytywnych wyjątków od reguły. Jednym z takowych był model Cogito 70B, który zapewnił lepsze wyniki od DeepSeek, jednocześnie wytwarzając nieco mniejszy ślad węglowy. Mimo to mówimy o bardzo nielicznych przypadkach i występowaniu dość jednoznacznego trendu związanego z wpływem skuteczności na emisje.

Jakie wnioski można wyciągnąć? Przede wszystkim, kiedy w grę wchodzi rozwiązywanie stosunkowo prostych problemów, a nie wykonywanie zaawansowanych działań, to rezygnacja z rozbudowanych modeli okazuje się decyzją wyjątkowo korzystną z punktu widzenia środowiska. Jak podkreślają autorzy nowych badań, mniejsze modele także są w stanie wykonywać określone, mniej skomplikowane czynności, dlatego warto wybierać je pod kątem zapotrzebowania na zasoby.

Czytaj też: “Ojciec AI” ostrzega: sztuczna inteligencja zastąpi pracowników umysłowych

Przy okazji pojawia się inna kwestia: czy korzystanie ze sztucznej inteligencji naprawdę jest tak potrzebne, jak się wydaje? Odpowiedzi na wiele pytań można uzyskać za pomocą prostej wyszukiwarki, bez konieczności generowania nowych odpowiedzi przez duże modele językowe, co za każdym razem wymaga zużycia zdecydowanie większych ilości energii, niż ma to miejsce w przypadku konwencjonalnych, internetowych narzędzi.