Pececiarze mają w nosie zużycie prądu. Jedni na tym zyskują, a drudzy tracą

Co zrobilibyście na miejscu firmy, wiedząc, że teoretycznie możecie zarobić więcej, po prostu zmieniając swoje podejście do projektów na rzecz czegoś, czego większość klientów nie zauważy? Tak może być z AMD i kartami graficznymi Radeon.
Pececiarze mają w nosie zużycie prądu. Jedni na tym zyskują, a drudzy tracą

AMD zależy na możliwie najniższym zużyciu prądu przez karty graficzne. Co jednak mówi rzeczywistość?

Czy wiecie, ile dokładnie energii zżera wasz komputer podczas różnych aktywności i jak wiele części rachunków za prąd stanowi? Jeśli tak, to najwyraźniej należycie do nielicznych i dlatego właśnie AMD ma problem. Misja firmy w zakresie kart graficznych kompletnie nie współgra z powszechnymi wymaganiami klientów, a to daje konkurencji zielone światło do nieustannego rozszerzania swojej przewagi. Efekt? Ogromna dominacja Nvidii na rynku i choć wina nie leży wyłącznie w tym konkretnym podejściu AMD, to może ono dorzucać do tego stanu swoje trzy grosze.

Czytaj też: Rewolucja perowskitów nadejdzie ze Wschodu. Zamiast prądu dostaniemy coś jeszcze lepszego

Skąd jednak w ogóle wzięliśmy takie pozornie absurdalne przeświadczenie, że AMD obiera złą drogę w rozwoju kart graficznych z biznesowego punktu widzenia? Tak się składa, że nie od jakiegoś analityka czy fana Nvidii, a prosto z wywiadu, którego udzielił szef działu Radeon przedstawicielom serwisu Club386. W nim otwarcie stwierdził, że podczas gdy jego firma ciągle pilnuje tego, aby zachować możliwie najlepszy stosunek wydajności do energożerności (wydajności na wat) w każdym możliwym scenariuszu, to nie każdy to docenia. Chociaż ogólnie ma to znaczenie w segmencie mobilnym, to w tym desktopowym jest wręcz pomijane. 

Przy wprowadzaniu wszystkich układów na rynek zwracamy uwagę na wydajność na wat na każdym wykresie. W notebookach ma to ogromne znaczenie. W komputerach stacjonarnych ma znaczenie, ale nie dla wszystkich. Są ludzie, którym naprawdę zależy na energooszczędności, ale inni nie przywiązują do tego tak dużej wagi. Zdecydowanie chcemy tworzyć układy o lepszej wydajności na wat. Zapotrzebowanie energetyczne jest zdecydowanie główną inicjatywą. Z czasem będziemy w tym coraz lepsi. Musimy nadrobić zaległości. Wciąż istnieją błędy, które musimy naprawić. Zapotrzebowanie [generowane przez karty graficzne] bez obciążenia jest jednym z nich. Wierzymy, że jest na to poprawka, którą uda się wprowadzić w ramach aktualizacji sterownika powiedział Scott Herkelman w wywiadzie z Club386.

Czytaj też: Nie tylko odnawialne źródła energii. W przyszłości kwestia prądu będzie znacznie bardziej skomplikowana

Tymi słowami szef działu Radeon niejako przyznał się, że choć AMD wie, że gracze z komputerami stacjonarnymi w większości nie przejmują się tym, ile energii pożerają karty graficzne, to i tak firma ciągle będzie skupiać się właśnie na możliwie najlepszej energooszczędności. Tyle tylko, czy odzwierciedla to aktualna sytuacja na rynku kart graficznych? Spójrzcie tylko na pierwsze lepsze porównanie aktualnie najwydajniejszych modeli obu producentów. Na poniższym nagraniu Radeon RX 7900 XTX zwykle rzeczywiście zżera mniej watów podczas grania, ale jednocześnie GeForce RTX 4090 gwarantuje zauważalnie wyższą płynność. 

Co ciekawe, sprawa ma się nieco inaczej w grze Spider-Man Miles Morales (propozycja AMD przegrywa na obu poletkach), ale to już kwestia różnic w tym, jak poszczególne gry zostały zrobione i z jakich silników korzystają. Średnio jednak około 30-50 watów więcej w GeForce RTX 4090 przekłada się na około 15-25 klatek na sekundę więcej, a to jednoznacznie wskazuje zwycięzcę tego typu pojedynku. AMD zwyczajnie nie jest w stanie dorównać Nvidii w najwyższym segmencie i nie możemy obronić tego podejściem firmy co do lepszej wydajności na wat. Dane mówią same za siebie.

Trzeba jednocześnie przyznać, że wyższa prądożerność dręczy głównie flagową kartę graficzną Nvidii, bo te mainstreamowe (pokroju GeForce RTX 4060) mimo wyższej wydajności względem poprzedników, pobierają zauważalnie mniej mocy do działania. Nvidia również więc o to dba, ale aż tak się z tym nie afiszuje. Trudno więc jednoznacznie odpowiedzieć na pytanie, czy AMD nie chce wprowadzać na rynek kart graficznych o wysokim poborze energii i czy ta zasada przekłada się na wydajność flagowca (są na to małe szanse). Najpewniej aktualnie firma zwyczajnie nie jest w stanie dorównać na najwyższych półkach temu, co ma do zaoferowania Nvidia. 

Czytaj też: Chiny znowu to zrobiły! Ile prądu zapewnia największa na świecie turbina wiatrowa?

Oczywiście nie wiemy, czy AMD w pewien sposób ogranicza rozwój swoich kart graficznych przez projektowe podejście do zużycia energii, ale jeśli rzeczywiście aż tak się na tym skupia, to są na to jakieś szanse. Problem jest tylko w tym, że obiecana 54-procentowa poprawka wydajności energetycznej po przejściu z RDNA 2 na RDNA 3 nie jest aż tak odczuwalna dla normalnego gracza. Przykładowo w Cyberpunku 2077 RX 6900 XT pobiera 300 watów i zapewnia średnio 39 FPS, a RX 7900 XTX przy 350-watowym poborze gwarantuje ~60 FPS, co oznacza około ~18-procentowy wzrost zapotrzebowania energetycznego w zamian za wzrost FPS o 50%.

Gdyby nie ten pierwszy wzrost, to porównanie wypadałoby bardzo dobrze z punktu widzenia AMD, ale już samo porównanie tego, jak skaluje się wydajność obu kart graficznych zależnie od mocy, jednoznacznie wskazuje, że to Nvidia jest zwycięzcą, jako że RTX 4090 pracujący z limitem 300 watów odpowiada RX 7900 XTX z limitem ustawionym na ponad 600 watów.