Rewolucja mocy, eksplozj

Harald Fette, Michael Lang
Ewa Dziekańska

Koniec XX wieku to okres zdominowany przez technikę komputerową. Następne stulecie będzie triumfem społeczeństw świadomych nieuchronności cyfrowej rewolucji. Już dziś jeden rekord w tej dziedzinie goni drugi: sprzęt dostępny do niedawna jedynie w renomowanych laboratoriach badawczych, coraz częściej wykorzystywany jest w przemyśle. Superkomputery osiągnęły granicę teraflopsów.

Od dziesiątków lat zespoły najlepszych fachowców pracowały nad skonstruowaniem komputera wydajniejszego niż wszystkie istniejące do tej pory. Próbowano udoskonalić architekturę najszybszych procesorów, wierząc, iż w ten sposób uda się uzyskać zdolność obliczeniową mogącą podołać najbardziej złożonym zadaniom. Udało się to specjalistom z Intela. I to bynajmniej nie przy udziale chipa o “rewolucyjnie” zmienionej architekturze, lecz poprzez połączenie zwykłych procesorów Pentium i całej masy kości pamięci. Superkomputer ze stajni Intela zszokował konkurencję: okazał się 2,5 raza szybszy niż przodująca dotąd w dziedzinie prędkości obliczeniowej maszyna Hitachi.

Geo-Dynamo: naukowcy badają odwracanie pola magnetycznego Ziemi pole magnetyczne ziemi

Jak nietrudno się domyślić najszybszy pecet świata nie jest tani: rząd Stanów Zjednoczonych, reprezentowany przez Ministerstwo Energetyki, musi nań wysupłać z kiesy 55 milionów dolarów. Za tę kwotę zbudowane zostanie urządzenie kryjące w swym wnętrzu 9200 procesorów Pentium, zajmujące 160 m2 i ważące 40 ton. Kolejne 272 tony waży konieczny do jego bezawaryjnej pracy agregat chłodzący.

Pamięć robocza owego superkomputera to – bagatela – 573 gigabajty. Kiedy maszyna zostanie skompletowana – a stanie się to mniej więcej w połowie bieżącego roku – będzie wykonywać 1400 miliardów operacji na sekundę, czyli 1,4 teraflopsów (floating points operation per second, operacji na liczbach zmiennoprzecinkowych na sekundę). Po co to wszystko? W Sandia National Laboratory w Los Alamos, gdzie ma stanąć komputer, naukowcy przeprowadzają symulacje wybuchów nuklearnych i wykorzystują moc obliczeniową superkomputerów do przewidywania kataklizmów.

super ibmSkoncentrowana siła: w szufladach superkomputera IBM w Monachium tkwi moc. Maszyna jest wykorzystywana przede wszystkim do obróbki obszernych grup danych

Dziś nie sposób sobie wyobrazić badań naukowych bez udziału superkomputerów. Są one tak samo niezbędne, jak kiedyś papier i ołówek. Umożliwiają symulację procesów fizycznych i chemicznych w obszarach niedostępnych konwencjonalnym metodom badawczym. Bez nich nie oglądalibyśmy co wieczór prognozy pogody, nie mówiąc o tym, że nie mogłyby sobie bez nich poradzić wojsko, NASA, agencje rządowe, administracja państwowa. Przy ich pomocy producenci samochodów mogą skrócić cykl prac nad konstrukcją nowego modelu. Pracownik banku w ciągu kilku sekund sprawdza na ekranie komputera wypłacalność starającego się o kredyt klienta. Komputerowa symulacja struktur molekularnych przyspiesza prace badawcze nad nowymi lekami. Nawet Hollywood byłyby bez komputerów jakby ciut mniej atrakcyjny.

Więcej:bezcatnews