W e-picentrum

Szafę wielkości dużej lodówki wypełniają szuflady, z których każda mieści 16-procesorowy serwer. Ściana w ścianę obok jednej szafy stoi druga, bliźniaczo podobna. Dalej następna i następna – aż do końca długiego, ponadstumetrowego rzędu. Takich rzędów w potężnej hali jest kilka. Oto legowisko monstrum – jednej z najpotężniejszych maszyn liczących na świecie.

Eniac – pierwszy komputer, który zajmował sporą halę, może wydawać nam się groteskowo wielki, ale w porównaniu z najpotężniejszymi dziś maszynami był rozmiarów niemal kieszonkowych. ASCI White zajmuje powierzchnię dwóch boisk do koszykówki i waży 106 ton. Jego mózg tworzą 8192 procesory IBM Power3-III. Podzielone na 512 węzłów po 16 procesorów każdy, mają do dyspozycji 6,2 terabajta RAM-u. Aby uzyskać tyle pamięci w zwykłych modułach, trzeba by rozmontować 50 tysięcy pecetów, z których każdy miałby po 128 MB pamięci RAM. Dane pobierane i zapisywane są na dyskach o łącznej pojemności 160 terabajtów. Wymiana danych między węzłami odbywała się przez cztery tysiące kilometrów okablowania. Transport tego giganta z fabryki IBM-a w stanie Nowy Jork do Lawrence Livermore National Laboratory w północnej Kalifornii wymagał czterech kursów konwoju składającego się z 28 TIR-ów. By ten gigant działał, trzeba mu dostarczać prąd o mocy 1,2 megawata – tyle, ile zużywa niewielkie miasteczko. Sporą część tej energii pochłaniają potężne systemy chłodzące.

Projektowanie broni
Spacer w punkcie zero
Celem eksperymentu zrealizowanego w Los Alamos i Lawrence Livermore było dokładne odtworzenie tego, co się dzieje przez trzy miliardowe części sekundy od momentu zdetonowania bomby atomowej. Przeprowadzenie pierwszej pełnej trójwymiarowej symulacji eksplozji nuklearnej było poprzedzone siedmiomiesięcznymi przygotowaniami, poświęconymi głównie na przygotowanie oprogramowania. Wykorzystano tylko 1920 z ponad 8 tysięcy procesorów ASCI White (pozostałe wykonywały inne zadania). Same obliczenia trwały 122 i pół dnia, pochłaniając 6,6 miliona “procesorogodzin”. Bardzo wydajny pojedynczy dzisiejszy pecet potrzebowałby na realizację tego zadania ponad 750 lat. “Dzięki temu dowiedzieliśmy się bardzo istotnych rzeczy na temat naszego arsenału nuklearnego, m.in. jego efektywności, w miarę jak on się starzeje” – mówi John Gorman z nadzorującego eksperyment National Nuclear Security Administration.
      Takie eksperymenty w połączeniu z analizą danych z rzeczywistych testów pozwalają opracowywać nową broń bez potrzeby przeprowadzenia eksplozji na atomowych poligonach. Jest to o tyle istotne, że od lat obowiązuje moratorium na takie próby.

Wydajność najpotężniejszych maszyn liczących rośnie tak szybko, że zaskakuje wszystkich. Co ciekawe, suma mocy obliczeniowej poszczególnych procesorów nie pozwala wnioskować o efektywności składającego się z nich komputera. Finalna moc może być zaskoczeniem nawet dla konstruktorów. ASCI White okazał się o 23 procent szybszy, niż przewidywał projekt – zamiast 10 teraflopów osiągnął wydajność 12,3 biliona operacji na sekundę. To około tysiąca razy więcej, niż miał do dyspozycji Deep Blue – pogromca szachowego arcymistrza Garriego Kasparowa z maja 1997 roku, i trzykrotnie więcej, niż oferował dotychczasowy rekordzista ASCI Blue (3,8 teraflopa). Postęp w tej dziedzinie odbywa się w tempie niewiele ustępującym szybkości ewolucji komputerów osobistych.

Przećwiczmy Hiroszimę

Olbrzymia moc obliczeniowa, oferowana przez gigantyczne maszyny liczące, niezbędna jest do tworzenia symulacji złożonych zjawisk mniej lub bardziej naturalnych. Centra superkomputerowe należące do amerykańskiego Departamentu Energii zajmują się symulowaniem zjawisk powstających podczas fuzji atomowej, zmianami klimatu, badaniami nad nanotechnologią i właściwościami genomu. Wirtualne odtworzenie procesów zachodzących we wnętrzu gwiazd może nas doprowadzić do technologii pozwalającej w tani sposób pozyskiwać olbrzymie ilości energii, np. przez wykorzystanie na wpół legendarnej zimnej fuzji jądrowej. Wiele najbardziej obiecujących leków powstało dzięki wyliczeniu niezwykle złożonych związków białka. Wyłącznie tego typu pracami ma się zajmować budowany dopiero Blue Gene/L. Tą drogą szuka się lekarstwa przeciwko AIDS. Do niedawna głównym inicjatorem postępu było jednak wojsko.

Wszystkie komputery serii ASCI (Accelerated Strategic Computing Initiative) – czyli wczorajsza czołówka najmocniejszych urządzeń liczących – zajmują się opracowywaniem i testowaniem atomowych arsenałów – bez eksplozji, skażenia środowiska i naruszania międzynarodowych umów o zakazie prób z bronią jądrową. Służą za swego rodzaju wirtualne poligony, na których można prześledzić efekt wybuchu jądrowego dowolnego ładunku. Wydajność mierzona w trylionach operacji na sekundę jest tu niezbędna, by w rozsądnym czasie odtworzyć losy każdego atomu biorącego udział w reakcji rozszczepienia plutonu. Wierne zasymulowanie wybuchu zajmuje potężnemu ASCI White miesiąc. To i tak szybko – pojedynczy superkomputer Cray z 1995 roku liczyłby to samo przez 60 tysięcy lat! W marcu zeszłego roku właśnie za pomocą “Białego” po raz pierwszy udało się przeprowadzić od początku do końca trójwymiarową symulację eksplozji atomowej (patrz ramka: “Spacer w punkcie zero”).

Modele White i Blue skonstruowane zostały przez IBM-a, natomiast ASCI Red to dzieło inżynierów Intela. Na drugim miejscu najbardziej wydajnych maszyn świata znajduje się budowany jeszcze przez Hewlett-Packarda ASCI Q. Do tej linii należy także Blue Mountain, będący dziełem Silicon Graphics, który pracuje w słynnym ze skonstruowania pierwszej bomby atomowej laboratorium w Los Alamos.

Więcej:bezcatnews