W rytmie dwóch serc

Specjaliści z NASA od dawna wiedzą, że skutecznym sposobem zwiększania niezawodności urządzeń jest dublowanie wszystkich krytycznych podzespołów. Metodę tę można zastosować także w domowym komputerze, zyskując znacznie więcej niż tylko stabilność pracy.

Od wielu lat trwa powszechna fascynacja multimediami. Na giełdach komputerowych najbardziej “chodliwym” towarem wciąż są akceleratory graficzne, karty dźwiękowe i napędy DVD-ROM. Większość nabywców tych komponentów to zapaleni gracze, marzący o jeszcze szybszym odświeżaniu ekranu w Quake’u czy lepszych efektach dźwiękowych w najnowszej “strzelance”. Istnieją jednak aplikacje, które wprawdzie nie wyglądają tak efektownie jak gry, ale wymagają znacznej mocy obliczeniowej procesora. Do tej grupy zaliczyć można np. programy CAD/CAM, aplikacje graficzne czy sieciowe systemy operacyjne. W ich przypadku nie pomoże najszybszy akcelerator graficzny. Żeby odczuwalnie przyśpieszyć działanie systemu, należy po prostu zaopatrzyć się w najnowszy dostępny procesor. Co więcej, we wspomnianych zastosowaniach doskonale sprawdza się stare przysłowie: “co dwie głowy, to nie jedna” – lepsze efekty dadzą dwa procesory.

Popędzanie batem

Idea przetwarzania równoległego znana jest od wieków. Już starożytni Egipcjanie wiedzieli, że wystarczy popędzić batem odpowiednio dużą liczbę niewolników, by w stosunkowo krótkim czasie skończyć budowę ogromnej piramidy. Podobnie funkcjonują wieloprocesorowe systemy komputerowe: jeśli zadania systemu można rozbić na kilka niezależnych części (wątków), które mogą być realizowane jednocześnie, dołożenie dodatkowych jednostek obliczeniowych może przyśpieszyć przetwarzanie. Do tego wzorca doskonale pasują np. obliczenia związane z renderowaniem trójwymiarowej sceny w programie 3D Studio MAX. Wieloprocesorowe maszyny pracujące pod kontrolą systemów operacyjnych Unix czy VMS od dawna obsługują wielkie ośrodki obliczeniowe. Również w świecie pecetów takie rozwiązania są obecnie coraz bardziej popularne, mimo że jeszcze parę lat temu dwuprocesorowe systemy były rzadkością. Obecnie niemal każdy producent płyt głównych ma w swojej ofercie co najmniej jeden model obsługujący dwie jednostki centralne.

Dlaczego więc uważane jeszcze niedawno za dość egzotyczne konstrukcje zyskują na popularności? Z pewnością jedną z przyczyn jest większa dostępność systemów operacyjnych i oprogramowania potrafiącego spożytkować moc dwóch procesorów. Wprawdzie Windows 9x nie wykorzystuje dwuprocesorowego potencjału, lecz Windows 2000, NT i coraz powszechniejszy Linux zrobią dobry użytek z dodatkowej mocy. Systemy te są jednak zazwyczaj stosowane do “poważnych” zadań. Czy wynika z tego, iż namiętny gracz nic nie zyska na drugim procesorze? A jak (i czy w ogóle?) dodatkową moc komputera wykorzysta miłośnik “kina komputerowego” i formatu DivX? Aby lepiej to sprawdzić, przetestowaliśmy 12 dwuprocesorowych płyt głównych.

Równy rytm

Podstawowe reguły konstruowania płyt wieloprocesorowych przeznaczonych dla platformy PC reguluje sporządzony w firmie Intel dokument “MultiProcessor Specification”, w skrócie MPS. Według niego oba procesory powinny być identyczne – działać z tą samą prędkością i być tej samej odmiany (stepping). W innym bowiem przypadku może dojść między nimi do konfliktu. Specyfikacja MPS, obecnie w wersji 1.4, określa także wiele innych czynników, przy czym nie nakłada ograniczeń co do stosowania akurat dwóch procesorów. To, że większość dostępnych płyt wieloprocesorowych wykorzystuje dwie jednostki obliczeniowe, a nie więcej, wynika głównie z wysokich kosztów związanych z budową takiego systemu. Specyfikacja określona przez Intela została najpowszechniej zastosowana w przypadku cieszących się zasłużoną sławą chipsetów BX oraz GX. Obecnie jednak Intel wycofał się z produkcji tych układów na rzecz rodziny i8xx (np. i815, i840). Powstałą w rynku lukę szybko zapełniła firma VIA.

Wydawałoby się, że dzięki ugruntowanej pozycji w segmencie IT oraz wciąż dużej popularności swoich procesorów Intel będzie mógł utrzymać dominację w sektorze rozwiązań wieloprocesorowych. Tak jednak nie jest, przynajmniej na razie. Niemal wszystkie dostarczone do testu płyty główne korzystały z chipsetów VIA Apollo Pro 133A z mostkiem północnym VT82C694XDP przystosowanym do obsługi dwóch jednostek centralnych. Co ciekawe, sam Intel wydaje się nieprzekonany do autorskich pomysłów, gdyż we własnej konstrukcji – STL2 – zastosował układy ServerSet III LE firmy ServerWorks.

Na razie Intel może być spokojny przynajmniej o swoje procesory, gdyż wszystkie konstrukcje wieloprocesorowe, dostępne obecnie na rynku pecetów, są przystosowane do obsługi jednostek wyłącznie jego produkcji. Wkrótce jednak może się to zmienić, gdyż AMD po udanym szturmie na domowe komputery szykuje się do ataku na segment rynku wieloprocesorowego. Pierwsze płyty dla dwóch Athlonów, bazujące na chipsecie AMD760MP, można było zobaczyć już na targach CeBIT i Computex. W ciągu kilku najbliższych miesięcy powinny zatem trafić do sprzedaży. Wieloprocesorowym rozwiązaniom AMD może przyjść z pomocą także firma VIA, która jak do tej pory była dostawcą największej liczby i rodzajów chipsetów dla Athlona i Durona. Dlatego można się spodziewać, iż już niedługo Intel może mieć poważną konkurencję także na polu systemów dwuprocesorowych.

Info

Grupy dyskusyjne
Uwagi i komentarze do artykułu:
#
Pytania techniczne:
#

Internet
Informacje o płytach dwuprocesorowych
http://www.2cpu.com/
http://www.bp6.com/
Porady dla systemów Windows NT/2000
http://www.ntcompatible.com/

Na CHIP-CD w dziale Hardware | Płyty dwuprocesorowe znajdują się pliki z dokumentacjami i obrazami BIOS-ów do przetestowanych płyt głównych oraz szczegółowe wykresy przedstawiające wyniki testów

Więcej:bezcatnews