Test pierwszej w Polsce karty GeForce FX 5900

By zatrzeć negatywne wrażenia wywołane po premierze niezbyt udanego modelu GeForce FX 5800, nVidia wprowadziła nowego chipa z górnej półki – GeForce FX 5900 Ultra. Badamy wyjętą wprost z demonstracyjnego komputera, ciepłą jeszcze, referencyjną wersję karty.

Z ręki do ręki

Wszystko wskazuje na to, że palma pierwszeństwa należna najwydajniejszemu układowi graficznemu wpadła w rezonans i rozpoczęła wędrówkę tam i z powrotem to do jednego, to do drugiego graf-lidera. Raz za razem to ATI, to nVidia staje na szczycie, a produkty to tej, to tamtej firmy zdobywają laury zwycięzców. nVidia rzuciła ATI wyzwanie, przystępując do ataku całą nową serią chipów (FX-y), której wszystkie podstawowe modele (do FX 5800 Ultra) już są lub powoli wkraczają na rynek. ATI odpowiedziała niemal natychmiast wprowadzając odpowiedniki enwidiowych szturmowców w każdej kategorii, a nawet uprzedziło jej ruchy prezentując Radeona 9800 Pro, dzięki któremu utrzymała się na pozycji technolidera. By schematowi stało się więc zadość nVidia musiała zaatakować czymś mocniejszym lub przynajmniej porównywalnym. I tak pojawił się FX 5900 Ultra, który 23 maja 2003r. miał swoją polską premierę. Zaraz po niej trafiła do nas wersja beta karty, zbudowana na płytce referencyjnej.

Co to tak gna?

FX 5900 Ultra to chip zastępujący układy niezbyt udanej serii 5800, która nie tylko rozczarowała nieco pod względem wydajności, ale na dodatek z powodu koszmarnego zapotrzebowania na energię ustanowiła rekord (w sensie negatywnym oczywiście) pod względem poziomu hałasu generowanego przez układ chłodzący. Po premierze i ukazaniu się pierwszych benchmarków FX 5800 fani produktów nVidii byli zawiedzeni, nie każdy bowiem miał ochotę instalować w swym komputerze zamiast karty graficznej… suszarkę do włosów! Zdawali sobie z tego sprawę również chłopcy z nVidii, dlatego też czym prędzej wprowadzili na rynek nowy model – pozbawiony wad poprzedniczki (zużycie energii, hałas) i jednocześnie zaopatrzony w zestaw nowych technologii zwiększających wydajność.

Chip FX 5900 wykonany jest w technologii 0,13um, co pozwala na taktowanie rdzenia z częstością 450 MHz i pamięci z efektywną częstotliwością 850 MHz. Pamięć pracuje z 256-bitową szyną danych i jest to pierwsza różnica w stosunku do poprzednika GF FX 5800. Poszerzenie szyny danych poprawiło przepustowość pamięci, dzięki czemu maksymalne transfery mogą sięgać 27.2GB/s. Nowy układ nVidii obsługuje 8 potoków renderujących, a dzięki architekturze CineFX w wersji 2.0 dysponuje dwukrotnie szybszym niż w GeForce FX 5800 cieniowaniem pikseli. Efekty związane z cieniowaniem obiektów mają również poprawić zaimplementowana technologia UltraShadow i mechanizm HCT (patrz niżej). Najnowszy GeForce w połączeniu z DirectX 9.0 zapewnia producentom gier dużo większe możliwości w zakresie programowalności. Mogą być tworzone dłuższe programy, zawierające więcej zmiennych i rozgałęzień. Zadbano również o jakość uzyskiwanego z karty obrazu na monitorze komputera, wyposażając 5900 Ultra w podwójny przetwornik RAMDAC taktowany częstotliwością 400MHz.

Parę nowych technologii

Nie każdy wie, że seria FX GeForców to pierwsze karty nVidii, do których produkcji przyczynili się przejęci przed laty pracownicy wykupionego 3dfx-a – firmy, która kładła podwaliny pod dzisiejszą grafikę 3D. W samym FX 5900 również zastosowane parę innowacyjnych technologii:

256-bitowa magistrala pamięci

– dzięki podwojeniu szerokości magistrali można było chwilowo zrezygnować z drogich modułów DDR II i zastąpić je wolniejszymi, ale i tańszymi jednocześnie kośćmi DDR. W połączeniu z 2,2-nanosekundowymi układami taktowanymi zegarem 425 MHz (850 MHz) daje to przepustowość rzędu 27,2 GB/s, czyli prawie 25% więcej, niż ma Radeon 9800 Pro

256 MB pamięci DDR

– przydatne szczególnie przy dużej liczbie dużych tekstur i generowaniu obrazu wysokiej jakości z włączonym pełnoekranowym antyaliasingiem

CineFX 2.0

– druga wersja jednostek do efektów specjalnych (Pixel i Vertex Shader), w której zoptymalizowano wszystkie etapy potoku przetwarzającego dane, podwajając (w stosunku do GeForcea FX 5800 Ultra) prędkość obliczeń zmiennoprzecinkowych modułu Pixel Shader. Nowy kontroler zwiększa szybkość przetwarzania danych, szczególnie w wyższych rozdzielczościach (1280×1024 i 1600×1200).

Więcej na temat wspomnianej technologii znajdziesz tutaj.

Intellisample HCT (high compression technology)

– technologia generowania obrazu wysokiej jakości (antyaliasing, filtrowanie anizotropowe) z poprawioną (do 50%) wydajnością kompresji kolorów, tekstur i danych Z-bufora. Przydatna szczególnie przy pracy w wysokich rozdzielczościach.

Więcej o technologii Intellisample znajdziesz tutaj.

Technologia UltraShadow

– zaawansowana technologia generowania cieni. Jednostka cieniująca wykorzystuje Z-bufor do wyeliminowania obiektów, które znajdują się poza zasięgiem cienia, znacznie przyśpieszając obliczenia (cieniowanie dla obiektów znajdujących się poza zasięgiem nie jest wykonywane). W nowych grach (Doom III, Half-life) generowanie cieni jest jednym z ważniejszych elementów procesu renderingu i zajmujące nawet powyżej 50% mocy obliczeniowej karty. Więcej na ten temat można poczytać tutaj.

Podstawowe dane techniczne GeForce FX 5900:

    Wykonana w procesie technologicznym 0,13um

  • 256-bitowa architektura pamięci
  • 256 MB pamięci DDR lub DDR II
  • Druga generacja kompresji i zarządzania pamięcią podręczną
  • Technologia Intellisample
Porównanie możliwości GeForce FX 5900, 5800 Ultra i sztandarowego chipa konkurencji
nVidia GeForceFX 5900nVidia GeForceFX 5800ATI Radeon 9800 PRO
Technologia0,13 µm0,13 µm0,15 µm
Liczba tranzystorów130 mln125 mln107 mln
Wyjścia wideo222
RAMDAC2 x 400 MHz2 x 400 MHz2 x 400 MHz
Szyna pamięci/pamięci256 bitów DDR128 bitów DDR2256 bitów DDR/DDR2
Przepustowość pamięci27,2 GB/s16 GB/s21,8 GB/s
Maks. rozmiar pamięci256 MB256 MB256 MB
Częstotliwość taktowania rdzenia450 MHz500 MHz380 MHz
Częstotliwość taktowania pamięci425/850 MHz (DDR)500/1000 MHz (DDR2)340/680 MHz (DDR)
Szyna AGP (maks.)8x8x8x
Precyzja obliczeń128-bitowa128-bitowa96-bitowa
Liczba potoków renderujących (pikseli/takt zegara)8/48/48
Wersja Vertex Shadera2.0+2.0+2
Wersja Pixel Shadera2.0+2.0+2
Zgodność z DirectX9.0 (+)9.0 (+)9.0
Tryb FSAAMultisamplingMultisamplingMultisampling
Optymalizacja pamięciLMA IILMA IIHyper Z III+
Inne optymalizacjeIntellisample HCTIntellisampleSmartShader 2.1, SmoothVision 2.1
Szacunkowa cena karty300-500 USD400 USD400 USD

Wyniki wydajności

Wydajność FX 5900 znacznie wzrosła w stosunku do poprzednika. W porówaniu z Radeonem 9800 Pro (128 MB RAM) można zaobserwować około 5-10% różnicę wydajności na korzyść FX-a. Są jednak i takie sytuacje, gdy 5900 wygrywa nawet o 50%, a także takie, gdzie przegrywa o kilka procent.

Ponieważ testy Radeona 9800 Pro wykonaliśmy przy ustawieniach sterownika na maksymalną wydajność, takie też ustawienia przyjęliśmy dla GeForce FX 5900. Dla porównania podajemy również wyniki uzyskane przy standardowych ustawieniach (optymalizacja jakości).

Konfiguracja testowa:

Procesor Intel Pentium 4 3,06 MHz (HT) ,

Celeron 1,7 GHz

Płyta główna:

Asus P4G8X

Pamięć:

2 x 256 MB DDR SDRAM

Sterowniki – referencyjne

Detonator FX 44.03

3DMark 2001 SE

W 3DMarku 2001 SE jest niewielka różnica na korzyść FX 5900. Niewielka jest też różnica między trybami optymalizacji wydajności i jakości. Jak się później okaże, uwidaczniają się one dopiero w przypadku włączenia pełnoekranowego wygładzania krawędzi i filtrowania anizotropowego. Ponieważ 3DMarka 2001 SE uruchamialiśmy bez tych opcji – różnice są niewielkie.

3DMark03

Uruchamiając następcę 3DMarka 2001 SE łatwo udowodnić, że są zadania, przy których nawet modele kart graficznych z górnej półki mogą się lekko „zakrztusić”. Nieco więcej realizmu (czyli więcej krawędzi, tekstur oraz efektów) i liczba FPS-ów spada do kilku na sekundę nawet na takim „kombajnie” jak FX 5900. Niestety, ze względu na niejasną sytuację związaną z powstaniem nowej wersji tego syntetycznego benchmarka wyniki generowane przezeń nie dają dobrego porównania wydajności. Obecne wersja sterowników (44.03) pozwoliła nam uzyskać wynik 5959 punktów. Jednakże po zastosowaniu uaktualnienia likwidującego podmianę niektórych instrukcji na takie, które GeForce wykonywał znacznie szybciej, uzyskaliśmy wynik znacznie gorszy – 4791 punktów (20% słabiej). Trudno ocenić, kto ma rację – czy nVidia tłumacząc się brakiem współpracy przy opracowywaniu nowego 3DMarka z jego producentem, co wpłynęło na użycie niezoptymalizowanych instrukcji, czy też firma Futuremark, twierdząca, że nVidia optymalizacje nVidii przynoszą zmiany jakości obrazu. Na razie nie polecamy używania tego programu jako narzędzia porównawczego.

Unreal Tournament 2003, Pentium 4 3.06 (HT), FSAA – brak, Anisotropic – brak

W trybie bez włączonego antyaliasingu i filtrowania anizotropowego FX 5900 trzyma się dzielnie w każdej rozdzielczości, odnotowując niewielkie spadki wydajności. Wtóruje mu Radeon 9800, który jednak w najwyższej rozdzielczości nieco „mięknie”. Daje tu znać o sobie mniejsza przepustowość pamięci Radeona

Unreal Tournament 2003, Pentium 4 3.06 (HT), FSAA – 4x, Anisotropic – brak

Pełnoekranowy antyaliasing to sytuacja, w której FX 5900 czuje się jak ryba w wodzie. Dzięki nowoczesnym technologiom (Intellisample HCT itd.) karta nie zwalnia tak jak jej poprzednicy wraz ze wzrostem rozdzielczości.

Unreal Tournament 2003, Pentium 4 3.06 (HT), FSAA – brak, Anisotropic – 8x

nVidia znacznie poprawiła wydajność sterowników, zwiększając prędkość pracy we wszystkich trybach korzystających z filtrowania anizotropowego. Popracowano również nad jakością – pośrednio widać to po wydajności: im wyższa rozdzielczość, tym większa różnica prędkości pomiędzy trybem z optymalizacją wydajności i trybem z optymalizacją jakości.

Unreal Tournament 2003, Pentium 4 3.06 (HT), FSAA – 4x, Anisotropic – 8x

Jednoczesne włączenie antyaliasingu i filtrowania anizotropowego daje jej nieco w kość, ale znacznie gorzej czuć się mogą właściciele starszych kart (GeForce4 Ti 4800), gdzie wydajność spada poniżej akceptowalnego poziomu.

Unreal Tournament 2003, Celeron 1,7 GHz, FSAA – brak, Anisotropic – brak

Jak widać, Celeron 1,7 GHz i FX 5900 to nie najlepsza para. Karta, podobnie jak i inne topowe akceleratory, wyraźnie się nudzi w każdej rozdzielczości, podczas gdy procesor nie nadąża z obliczeniami. O dziwo, o wiele lepsze wyniki daje GeForce4 Ti 4800, który wybija się o ponad 10% przed R9800 i FX5900. To jednak pomiarowy ewenement

Quake III, FSAA – brak, Anisotropic – brak

Quake III, FSAA – 4x, Anisotropic – brak

Quake III, FSAA – brak, Anisotropic – 8x

Quake III to dobry test pokazujący wydajność pracy w trybie OpenGL. Mimo podeszłego wieku aplikacji wciąż bardzo dobrze skaluje się ona wraz z nowymi rozwiązaniami sprzętowymi. Z wykresów widać wyraźnie, że środowisko to jest domeną kart nVidii. Radeon wypada nieźle, jednak w podstawowych trybach ustępuje nawet GeForceowi4. FX trzyma się bardzo mocno, nie ustępując z pozycji lidera ani razu.

Podsumowując: GeForce FX 5900 Ultra to chip, dzięki któremu nVidia znowu zdobyła palmę pierwszeństwa. Projektanci karty wzięli sobie do serca naukę płynącą z wprowadzenia niezbyt udanego, hałaśliwego poprzednika i dobrze odrobili zadanie domowe. Nowa karta doskonale sprawdzi się we wszystkich wymagających zastosowaniach. Nareszcie będzie też można korzystać z pełnoekranowego antyaliasingu i filtrowania anizotropowego bez wyraźnego spadku wydajności, nawet w wyższych rozdzielczościach. Ponieważ, zgodnie z doniesieniami ATI, aż do jesieni nie zamierza ona wprowadzać nowego chipa, FX 5900 pozostanie przynajmniej przez parę miesięcy liderem wydajności. Jedynym zagrożeniem może być dla niej Radeon 9800 Pro w wersji z pamięcią 256 MB, szczególnie wraz z nowymi sterownikami Catalyst 3.4, czego nie omieszkamy już wkrótce sprawdzić.

Dostępność

    Zgodnie z informacjami udzielonymi przez przedstawiciela nVidii dostępne będą trzy modele kart bazujących na chipie FX 5900:

  • GeForce FX 5900 Ultra – model o najwyższej wydajności wyposażony w 256 MB pamięci DDR, wyjście DVI, D-SUB, TV/VIVO, dostępny od czerwca w cenie ok. 500 USD
  • GeForce FX 5900 – model „środka” wyposażony w 128MB RAM-u, wyjście DVI, D-SUB, TV/VIVO, dostępny również od czerwca w cenie ok. 400 USD
  • nV35 Value – tańsza i nieco mniej wydajna wersja karty ze 128 MB RAM-u, wyjście DVI, D-SUB, TV (bez VIVO), cena – ok. 300 USD. Model znajdzie się na ryku pod koniec lipca.
  • Dodatkowo seria FX pojawi się wkrótce w zastosowaniach mobilnych i – jak się nieoficjalnie dowiedzieliśmy – trafi również do kolejnego wcielenia chipsetu nForce. Następcę FX5900 – czyli chip kryjący się pod kryptonimem nV40, ujrzymy prawdopodobnie dopiero późną zimą…

Rys. 1.

Najważniejszy układ na płycie. Na ukrytym w środku plasterku krzemu znajduje się 130 milionów tranzystorów (o 5 mln więcej niż w przypadku FX 5800 Ultra)

Rys. 2.

Już na pierwszy rzut oka widać, co odróżnia referencyjny model FX 5900 od jego poprzednika – zamiast hałasującego FlowFX-a – nieco bardziej tradycyjny system chłodzenia. Niemniej radiatory na procesorze graficznym i pamięciach są duże i masywne (cała karta waży ponad 0,5 kg!), a karta i tak zajmuje dodatkowe gniazdo PCI. Wersje dostępne w sprzedaży mają być jednak krótsze

Rys. 3.

128-megabitowe kości DDR o czasie dostępu 2,2 ns w połączeniu z 256 bitową magistralą dają niesamowitą przepustowość rzędu 27,2 GB/s.

Rys. 4.

Na referencyjnej wersji płytki drukowanej znaleźć można jeszcze złącze serwisowe – nam raczej do niczego nie przydatne.

Rys. 5.

FX 5900, podobnie jak i inne zaawansowane karty, wymaga dodatkowego zasilania. Dostarczamy je bezpośrednio z zasilacza. W przeciwnym przypadku karta będzie działać, ale po starcie systemu napotkamy złowrogo brzmiący komunikat…

Rys. 6.

W oparach siarki, ogniu i dymie: Nowe możliwości CinemaFX: gorejący potwór spala się i dymi dzięki wolumetrycznym teksturom nałożonym na dym i ogień. Również moduł generowania cieni ma tutaj co robić.

Rys. 7.

Nowe demo skrzydlatej Elfki może na pierwszy rzut oka nie wzbudzać zbytniego zainteresowania. Gdy przyjrzymy się jednak złożoności animowanej postaci i zwrócimy uwagę na generowane cienie, zmienimy zdanie, wiedząc dodatkowo, jak wolno program ten pracuje na kartach poprzedniej generacji…

Wyświetlając obraz na monitorze, możemy teraz regulować ostrość z poziomu sterowników.

Rys. 8.

Zasada działania jednostki generowania cieni UltraShadow: dzięki wykorzystaniu techniki UltraShadow i Z-bufora do obliczeń związanych z cieniowaniem brane są tylko te obiekty, które wchodzą w obręb rzucanego cienia.

Rys. 9.
Rys. 10.
Rys. 11.

Złożoność cieniowania: by sprawdzić, jak skomplikowany może być proces cieniowania, wystarczyć spojrzeć na ostatni rysunek. Żółte linie to dodatkowe elementy „geometrii” sceny konieczne do prawidłowego wygenerowania cieni rzucanych przez obiekty.

0
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.