Symulatory chaosu

Tianhe-2, Titan, Sequoia, K computer – cztery najszybsze superkomputery świata, potężna moc obliczeniowa i równie potężne koszty budowy, w przypadku lidera sięgające niemal 400 milionów dolarów. Do czego są wykorzystywane te maszyny?

Mimo kolosalnych kosztów budowy superkomputerów wciąż powstają kolejne tego typu konstrukcje. Ich olbrzymi potencjał jest wart ich ceny, bo umożliwia symulowanie złożonych zjawisk, których zrozumienie nie tylko wpływa na rozwój technologiczny i cywilizacyjny, ale też często pozwala uchronić tysiące ludzkich istnień – dzięki przewidywaniu klęsk żywiołowych czy opracowywaniu nowych leków.

Prognozowanie pogody

Większość ludzi niezwiązanych bezpośrednio z meteorologią nie zdaje sobie sprawy, jak skomplikowanym procesem jest prognozowanie pogody. Ogrom danych przetwarzanych w celu możliwie dokładnego przewidzenia, jaka aura będzie w najbliższym czasie w konkretnym regionie, w żaden sposób nie przystaje do medialnego wizerunku „pogodynki” prezentującej nam kolorową mapkę

ze słoneczkami i chmurkami. Pogoda to jedno ze zjawisk naturalnych, które jest doskonałym przykładem układu chaotycznego. O ile daje się on w pewnym stopniu modelować, co właśnie robimy, prognozując pogodę, o tyle nawet niewielka modyfikacja warunków początkowych może powodować wykładniczo rosnące zmiany w czasie – w efekcie wyniki pracy na modelu nadają się do kosza. Niemniej nawet tak złożony proces, jakim jest kształtowanie się pogody na świecie (w dowolnym jego obszarze), jest w znacznym stopniu zdeterminowany, a tym samym przewidywalny. Problemów nastręcza skala oraz liczba czynników, które trzeba uwzględnić, prognozując np. powstanie w konkretnym miejscu tornada, którego skutki mogą gospodarkę danego regionu kosztować miliardy. Z kartką i długopisem nie damy rady tego zrobić – potrzebujemy komputerów. Superkomputerów.

Tak wygląda meteorogram wygenerowany przez komputery działające w warszawskim ośrodku ICM. Prezentuje on znacznie dokładniejsze informacje na temat pogody niż piktogramy na mapkach prezentowane przez stacje telewizyjne, choć na pierwszy rzut oka może przerazić laika.

Tak wygląda meteorogram wygenerowany przez komputery działające w warszawskim ośrodku ICM. Prezentuje on znacznie dokładniejsze informacje na temat pogody niż piktogramy na mapkach prezentowane przez stacje telewizyjne, choć na pierwszy rzut oka może przerazić laika.

W Polsce matematycznym modelowaniem pogody zajmuje się warszawskie Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego. Ta badawcza jednostka, o której mówi się najczęściej, posługując się skrótem ICM, opracowuje numeryczną prognozę pogody dla całej Europy Środkowej: od północnych rubieży Półwyspu Skandynawskiego po północne Włochy i południowe szczyty Karpat znajdujące się na terenie południowo-zachodniej Rumunii. Wyniki obliczeń przepowiadającego pogodę klastra obliczeniowego warszawskiego ośrodka są publikowane na stronie www.meteo.pl. Każdy może wybrać jeden spośród trzech dostępnych modeli prognostycznych, z których dwa – UM oraz COAMPS – dotyczą prognozy pogody, a trzeci, czyli WAM, prognozuje falowanie Bałtyku. Niestety, ICM nie udzieli odpowiedzi na pytanie, jaka będzie pogoda np. 21 września (bo akurat mamy ślub i zastanawiamy się, czy zamówić kabriolet – ponoć i takie maile do ośrodka ICM były wysyłane).

Dokładniejszy okazuje się model UM: przewiduje pogodę dla sektorów, z których każdy jest kwadratem o boku 4 km. Długość prognozy to ok. 60–72 godzin. Z jednej strony to niby niewiele, całego urlopu na podstawie tej prognozy nie zaplanujemy. Z drugiej wyniki numerycznej prognozy pogody są wykorzystywane np. przez kapitanów promów, którzy docenili trafność prognoz dotyczących zachowania się Bałtyku. Co ciekawe, warszawski ICM jest również źródłem danych dla wielu działających w Polsce elektrowni wiatrowych, które na podstawie sugerowanych przez komputery ICM kierunków wiatrów ustawiają swoje wiatraki. Choć w Polsce na szczęście nie borykamy się z pogodowymi kataklizmami, jak tajfuny, cyklony tropikalne czy huragany, to doskonale wiemy, jak duże straty materialne niejednokrotnie powodują znane w naszym klimacie burze. Wiedza o nadchodzącej nawałnicy pozwala przynajmniej części strat uniknąć. W przypadku państw zagrożonych klęskami żywiołowymi o większym zasięgu i sile działania możliwość prognozowania pogody na większym obszarze i w dłuższej perspektywie to nie kaprys, lecz konieczność pozwalająca oszczędzić bądź zabezpieczyć dobra materialne, a także ocalić życie ludzi. Oczywiście nie oznacza to, że superkomputery zastąpią meteorologów, wręcz przeciwnie – wiedza synoptyka jest niezbędna do tego, by odpowiednio skonstruować model prognostyczny, a następnie zinterpretować jego wyniki.

Badania zmian klimatu

Tianhe 2 - chiński superkomputer

Tianhe 2 – chiński superkomputer

Superkomputery wykorzystuje się nie tylko do krótkoterminowych prognoz pogody na konkretnych obszarach, ale również do przewidywania długofalowych trendów klimatycznych. Używa się do tego celu całego arsenału numerycznych modeli zmian klimatycznych. Szczególnym ich przykładem jest tzw. globalny model klimatu (GCM – Global Climate Model). Opiera się on na podstawowych prawach fizyki, chemii oraz wiedzy naukowej na temat przepływu cieczy (nie tylko wody, ale i powietrza) oraz układów dynamicznych. W połączeniu z olbrzymią liczbą danych wejściowych dotyczących aktualnych i dawnych pomiarów klimatu (m.in. temperatury, prędkości i kierunku wiatru, procesy radiacyjne w atmosferze, rozkład temperatury w oceanach, wpływ gazów cieplarnianych, pyłów, aerozoli itd.) oznacza to, że mamy do czynienia z olbrzymią złożonością obliczeniową. Aparatem matematycznym w modelu GCM są równania Naviera-Stokesa. W najprostszych przypadkach ich rozwiązania da się uzyskać ręcznie (np. poprzez całkowanie i rachunek różniczkowy), ale klimat to nie jest prosty przypadek.

W takiej sytuacji w grę wchodzą jedynie metody numeryczne, dlatego do akcji muszą wkroczyć superkomputery. Mówiąc wprost, bez superkomputerów nie bylibyśmy w stanie nawet próbować przewidzieć zmiany klimatyczne. O znaczeniu takich badań nie ma co dyskutować. Oczywiście można protestować przeciwko np. prognozom sugerującym śmierć głodową milionów ludzi z powodu ocieplania się klimatu i wynikających z tego zmian w znacznej części globu, ale protesty nie na wiele się zdadzą – natura nie negocjuje. Dzięki wiedzy uzyskanej przy pomocy superkomputerów znacznie wcześniej zdołamy przygotować się na negatywne zmiany.

Modelowanie reakcji chemicznych

Symulacja próby zmiany trajektorii asteroidy za pomocą eksplozji nuklearnej. Moc obliczeniowa superkomputerów pozwala dokładnie przewidzieć, jak będzie wyglądało rozchodzenie się fali uderzeniowej wewnątrz porowatej struktury kosmicznej skały i jaki to będzie miało wpływ na jej dalszy ruch. W takich przypadkach rzeczywiste eksperymenty są po prostu niemożliwe.

Symulacja próby zmiany trajektorii asteroidy za pomocą eksplozji nuklearnej. Moc obliczeniowa superkomputerów pozwala dokładnie przewidzieć, jak będzie wyglądało rozchodzenie się fali uderzeniowej wewnątrz porowatej struktury kosmicznej skały i jaki to będzie miało wpływ na jej dalszy ruch. W takich przypadkach rzeczywiste eksperymenty są po prostu niemożliwe.

Rok 2013, trzech naukowców – Martin Karplus, Michael Levitt oraz Arieh Warshel – otrzymuje z rąk przedstawicieli Królewskiej Szwedzkiej Akademii Nauk Nagrodę Nobla w dziedzinie chemii. Wynaleźli nowy pierwiastek? Odkryli nową substancję? Nie, dokonali czegoś znacznie ważniejszego: opracowali działające modele złożonych procesów chemicznych. Innymi słowy, przenieśli klasyczny laboratoryjny świat chemii do uniwersum wirtualnego, w którym – dzięki mocy superkomputerów – badań i odkryć można dokonywać nieporównywalnie szybciej niż w pełnym ograniczeń świecie fizycznym. Badania trzech noblistów pozwoliły światu nauki zaoszczędzić miliardy dolarów na badania eksperymentalne, które zakończyłyby się fiaskiem. Dzięki możliwości symulacji złożonych procesów chemicznych za pomocą superkomputerów dziś chemicy są już w stanie w znacznym stopniu przewidzieć, jak dana cząsteczka będzie się zachowywać, jeszcze przed rozpoczęciem jakichkolwiek rzeczywistych eksperymentów. To pozwala oszacować, czy w ogóle warto inwestować w badania. Dzięki pracy wyróżnionych przez Szwedzką Akademię naukowców już dziś przemysł farmaceutyczny może tworzyć nowe leki, przewidując zachowanie cząsteczek istotnych dla biologicznych procesów życiowych.

A dzięki skalowalności rozwiązania – gdy tylko będziemy dysponować jeszcze większą mocą obliczeniową – możliwe będzie również symulowanie procesów życiowych na poziomie molekularnym

z uwzględnieniem efektów kwantowych albo wręcz symulacja biochemii żywego organizmu. Jeżeli to zależy tylko od mocy obliczeniowej, dojdziemy i do tego – to jedynie kwestia czasu. Czyż nie byłoby lepiej, gdyby przeprowadzać np. eksperymenty genetyczne na wirtualnych konstruktach, nie narażając organizmów żywych na efekty błędnych założeń? Tego typu obliczenia są prowadzone również w Polsce. Dr inż. Jerzy Proficz z Centrum Informatycznego Trójmiejskiej Akademickiej Sieci Komputerowej wyjaśnia, że nowy superkomputer Politechniki Gdańskiej – Tryton – będzie służył m.in. do przeprowadzania wirtualnych doświadczeń znacznie taniej i szybciej niż w rzeczywistości. Symulowanie działania nowych leków czy analiza obrazów powstałych np. w trakcie różnego rodzaju badań endoskopowych – to tylko przykłady zastosowań nowego polskiego superkomputera.

Eksplozje nuklearne

Superkomputery w Los Alamos

Superkomputery w Los Alamos

Nie licząc eksperymentów prowadzonych przez Koreę Północną, ostatni próbny naziemny wybuch nuklearny miał miejsce jeszcze w ubiegłym wieku. Co spowodowało, że zaprzestano prób z bronią nuklearną? Oczywiście możesz myśleć, że to naciski społeczeństw przeciwnych tej broni wpłynęły na decyzje władz mocarstw atomowych, ale jedną z głównych przyczyn zaprzestania rzeczywistych prób jądrowych są… superkomputery. Po prostu przeprowadzanie eksplozji przestało się opłacać. Wbrew pozorom próbne eksplozje nie są przeprowadzane w celu sprawdzenia, czy broń działa. Działa, i to zabójczo dobrze, zbyt dobrze – można powiedzieć. Celem rzeczywistych prób jest testowanie zabezpieczeń broni nuklearnej oraz jej udoskonalanie. Niestety, broń nuklearna nie dość, że jest droga (1 gram plutonu kosztuje ok. 5000 dolarów, mowa oczywiście o kosztach wytworzenia, a nie o cenie rynkowej – taka nie istnieje), to jeszcze ma bardzo negatywny wpływ na środowisko.

Potężna moc obliczeniowa superkomputerów – zwłaszcza tych znajdujących się w posiadaniu atomowych mocarstw takich jak Stany Zjednoczone czy Chiny – pozwala obecnie na symulowanie efektów eksplozji nuklearnych z dokładnością do poziomu molekularnego. Dzięki wynikom takich symulacji nie ma potrzeby przeprowadzania rzeczywistych eksplozji, co już oznacza korzyści (zarządzanie arsenałem, zabezpieczenie transportu, korzyści środowiskowe itd.). Potencjał obliczeniowy superkomputerów umożliwia też coś więcej niż symulowanie samych efektów eksplozji, pozwala wykraczać poza ramy wyznaczane przez rzeczywistość i symulować zagrożenia, jakie dopiero mogą się pojawić. Przykładem mogą być prace badawcze prowadzone przez amerykańskie laboratorium Los Alamos – kolebkę broni atomowej. Obliczenia superkomputerów są tu wykorzystywane m.in. do symulacji prób zmiany trajektorii asteroidy znajdującej się na kursie kolizyjnym z naszą planetą.

Kolejne monstra obliczeniowe

Amerykanie już pracują nad budową kolejnego giganta obliczeniowego: 9 kwietnia 2015 amerykański podsekretarz stanu w Departamencie Energii, Lynn Orr, ogłosił podpisanie wartej 200 milionów dolarów umowy pomiędzy federalną administracją a dwoma dobrze znanymi na rynku superkomputerów korporacjami – Intel oraz Cray. Do roku 2018 w jednej z najstarszych placówek badawczych Stanów Zjednoczonych, Argonne National Laboratory, ma powstać najsilniejszy superkomputer świata: Aurora. Jednostka ma dysponować mocą obliczeniową aż 180 PFLOPS (petafl opów). Potencjał tego komputera trudno sobie wyobrazić – jego moc stanowi niemal 2/3 mocy obliczeniowej oferowanej łącznie przez 500 najwydajniejszych komputerów świata funkcjonujących obecnie. Aurora ma być wykorzystywana do badań nad energią odnawialną, biopaliwami, rozprzestrzenianiem się chorób, ma umożliwić również budowę nowej generacji akumulatorów. Warto przy tym zauważyć, że choć kwota umowy jest znacząco niższa od kosztów budowy najszybszego dziś chińskiego Tianhe-2 (390 milionów dolarów), to Departament Energii USA w umowie wynegocjował jeszcze jeden superkomputer. Maszyna o nazwie Theta ma być gotowa do działania już w przyszłym roku. Jej moc jest wyraźnie mniejsza od mocy Aurory – „tylko” 8,5 PFLOPS – co tak pozwoli Thecie znaleźć się w pierwszej dziesiątce najszybszych superkomputerów świata. Obie maszyny budowane są na bazie układów Intel Xeon i Intel Xeon Phi. Jak widać, zakaz nałożony na Intela przez rząd USA nie oznacza, że firma nie będzie miała co robić. Theta będzie wyjątkowo oszczędnie gospodarującym energią superkomputerem – ma pobierać 1,7 MW. Dla porównania dodajmy, że inny amerykański superkomputer – Mira – dysponujący porównywalną mocą obliczeniową (8,6 PFLOPS) potrzebuje zasilania o mocy 3,9 MW.

Przyszłość jest obiecująca

W dalszej perspektywie będzie jeszcze ciekawiej – tempo wzrostu spodziewanych mocy obliczeniowych bynajmniej nie słabnie. Już dziś mówi się o zupełnie nowych technologiach, dzięki którym wydajność przyszłych komputerów ma sięgnąć „magicznej” granicy 1 EFLOPS (tryliona operacji na sekundę). Ciekawy pomysł forsuje brytyjska firma Optalysys, która pod koniec 2014 zapowiedziała opracowanie w ciągu kilku miesięcy prototypu komputera optycznego. Co prawda, jednostka prototypowa ma oferować moc „jedynie” 346 gigaflopów, czyli o kilka rzędów wielkości niższą od tej, którą dysponują najpotężniejsze działające obecnie klastry obliczeniowe, ale – jeżeli wierzyć założycielowi firmy doktorowi Nickowi New – dzięki technologii optycznej już w roku 2020 będzie możliwe zbudowanie komputera optycznego o wydajności aż 17,1 EFLOPS, zajmującego tyle miejsca na biurku co zwykły pecet. Brzmi rewelacyjnie, ale poczekajmy na działający prototyp.