Koniec XX wieku to okres zdominowany przez technikę komputerową. Następne stulecie będzie triumfem społeczeństw świadomych nieuchronności cyfrowej rewolucji. Już dziś jeden rekord w tej dziedzinie goni drugi: sprzęt dostępny do niedawna jedynie w renomowanych laboratoriach badawczych, coraz częściej wykorzystywany jest w przemyśle. Superkomputery osiągnęły granicę teraflopsów.
Od dziesiątków lat zespoły najlepszych fachowców pracowały nad skonstruowaniem komputera wydajniejszego niż wszystkie istniejące do tej pory. Próbowano udoskonalić architekturę najszybszych procesorów, wierząc, iż w ten sposób uda się uzyskać zdolność obliczeniową mogącą podołać najbardziej złożonym zadaniom. Udało się to specjalistom z Intela. I to bynajmniej nie przy udziale chipa o “rewolucyjnie” zmienionej architekturze, lecz poprzez połączenie zwykłych procesorów Pentium i całej masy kości pamięci. Superkomputer ze stajni Intela zszokował konkurencję: okazał się 2,5 raza szybszy niż przodująca dotąd w dziedzinie prędkości obliczeniowej maszyna Hitachi.
Geo-Dynamo: naukowcy badają odwracanie pola magnetycznego Ziemi |
Jak nietrudno się domyślić najszybszy pecet świata nie jest tani: rząd Stanów Zjednoczonych, reprezentowany przez Ministerstwo Energetyki, musi nań wysupłać z kiesy 55 milionów dolarów. Za tę kwotę zbudowane zostanie urządzenie kryjące w swym wnętrzu 9200 procesorów Pentium, zajmujące 160 m2 i ważące 40 ton. Kolejne 272 tony waży konieczny do jego bezawaryjnej pracy agregat chłodzący.
Pamięć robocza owego superkomputera to – bagatela – 573 gigabajty. Kiedy maszyna zostanie skompletowana – a stanie się to mniej więcej w połowie bieżącego roku – będzie wykonywać 1400 miliardów operacji na sekundę, czyli 1,4 teraflopsów (floating points operation per second, operacji na liczbach zmiennoprzecinkowych na sekundę). Po co to wszystko? W Sandia National Laboratory w Los Alamos, gdzie ma stanąć komputer, naukowcy przeprowadzają symulacje wybuchów nuklearnych i wykorzystują moc obliczeniową superkomputerów do przewidywania kataklizmów.
Skoncentrowana siła: w szufladach superkomputera IBM w Monachium tkwi moc. Maszyna jest wykorzystywana przede wszystkim do obróbki obszernych grup danych |
Dziś nie sposób sobie wyobrazić badań naukowych bez udziału superkomputerów. Są one tak samo niezbędne, jak kiedyś papier i ołówek. Umożliwiają symulację procesów fizycznych i chemicznych w obszarach niedostępnych konwencjonalnym metodom badawczym. Bez nich nie oglądalibyśmy co wieczór prognozy pogody, nie mówiąc o tym, że nie mogłyby sobie bez nich poradzić wojsko, NASA, agencje rządowe, administracja państwowa. Przy ich pomocy producenci samochodów mogą skrócić cykl prac nad konstrukcją nowego modelu. Pracownik banku w ciągu kilku sekund sprawdza na ekranie komputera wypłacalność starającego się o kredyt klienta. Komputerowa symulacja struktur molekularnych przyspiesza prace badawcze nad nowymi lekami. Nawet Hollywood byłyby bez komputerów jakby ciut mniej atrakcyjny.