Farmy serwerów stają się ekologiczne

Tempo wzrostu popytu na moc obliczeniową rośnie wykładniczo. Pokazujemy, dzięki jakim technologiom centra obliczeniowe nie tylko zwiększają swoją efektywność energetyczną, ale jednocześnie odciążają środowisko naturalne.

Liczby, które mogą zadziwić – dwa proste wyszukania na stronie Google mają wytwarzać tyle samo dwutlenku węgla (CO2), co przejechanie kilometra samochodem czy świecąca przez 60 minut energooszczędna świetlówka. Natomiast pełna aukcja w serwisie Allegro ma powodować wygenerowanie dokładnie 18 gramów CO2. Oczywiście może to być również kolejna urban legend. Jednak według internetowego serwisu Data Center Knowledge właściciel najpopularniejszej na świecie wyszukiwarki ma kilkaset tysięcy serwerów ulokowanych w przynajmniej 24 centrach na całym świecie. Przeciętnie każda z lokalizacji może pochłaniać od 30 do 50 megawatów. Zapotrzebowanie Google’a na energię elektryczną szacuje się więc z grubsza na tyle, ile byłyby w stanie wyprodukować dwie duże tradycyjne elektrownie węglowe. Z drugiej strony od centrów obliczeniowych nie ma odwrotu – zapotrzebowanie na moc obliczeniową rośnie na całym świecie wykładniczo. A wyprodukowanie energii nie dość, że degraduje środowisko, to jeszcze kosztuje. Wniosek nasuwa się sam: ochrona środowiska staje się coraz bardziej lukratywnym biznesem, szczególnie w miejscach, w których dokonuje się mnóstwa obliczeń. A przecież obniżenie kosztów energii powinno mieć jak najmniejszy wpływ na możliwości obliczeniowe. Dlatego zyskuje na znaczeniu pojęcie energetycznej efektywności, a formuła nowego paradygmatu energetycznego w dziedzinie IT brzmi w skrócie: coraz większa wydajność przy możliwie niskim zużyciu energii.

Paradygmat: Wysoka wydajność przy najniższym zużyciu energii

Jak teoria wygląda w praktyce, pokazuje dostępność mocy obliczeniowej w ciągu ostatnich lat: do wykonania 5,1 miliona operacji obliczeniowych na sekundę (BOPS) potrzebowano jeszcze przed czterema laty 126 serwerów. Taką samą moc obliczeniową uzyskuje dzisiaj 17 serwerów, co może prowadzić do drastycznych oszczędności, sięgających nawet 80 proc. Tak znaczny wzrost efektywności stał się możliwy m.in. dzięki optymalnemu wspomaganiu wirtualizacji w procesorach oraz chipsetach, które sprawiają, że cztery rdzenie procesora są optymalnie obciążone. Również efektem coraz bardziej zwartej konstrukcji obwodów w układach elektronicznych jest oszczędzanie energii. Istnieją także inne składniki peceta, które mogą się przyczynić do oszczędności energetycznych: zwykłe dyski twarde zużywają lwią część potrzebnej im energii na rozkręcanie talerza oraz mechaniczne poruszanie głowicami. Ich następcy, dyski SSD, działają zupełnie bez mechaniki. W efekcie zapotrzebowanie na prąd zostaje zredukowane do mniej więcej jednej piątej – przy znacznie wyższej wydajności. Kolejnym przykładem jest pamięć RAM. Nowoczesne kości DDR3 zużywają o około 20 proc. mniej energii niż poprzednia generacja – DDR2.

Cel: W pogoni za najniższym PUE

Istnieją też inne czynniki, które mają wpływ na koszty centrum obliczeniowego – dotyczy to szczególnie chłodzenia. Aby lepiej zobrazować wydajność konfi guracji, stworzono parametr PUE (Power Usage Eff ectiveness). Wyraża on stosunek całkowitej energii zużywanej przez centrum do energii, którą zużywa w czasie normalnej pracy umieszczony w nim sprzęt komputerowy. Tradycyjne, chłodzone powietrzem centra osiągają obecnie wartość PUE rzędu 1,7–1,8. Natychmiast przekłada się to na koszty – w przypadku niektórych farm serwerowych są one tak wysokie, że już po kilku latach przewyższają nakłady na zakup komputerów, szaf i systemu chłodzenia. Gdy weźmie się pod uwagę dużą liczbę serwerów w ośrodkach, opłaca się w nich optymalizować zarówno wykorzystanie sprzętu, chłodzenia, jak i procesu zarządzania obiektem. W jaki sposób można ten cel osiągnąć, bada Intel – we wrześniu 2009 roku największy producent procesorów, łącząc siły z T-Systems, rozpoczął projekt „DataCenter 2020”. W tej eksperymentalnej farmie serwerowej na 70 m kw. umieszczono ponad 180 serwerów. System chłodzenia zajął kolejne 100 m kw. – zbliżono się więc do granicy upakowania. A wszystko to w celu ustalenia idealnych warunków pracy dla centrum obliczeniowego przyszłości. W DataCenter 2020 planuje się uzyskanie wartości PUE na poziomie maksymalnie 1,3, co stanowiłoby absolutny rekord, jeśli chodzi o efektywność energetyczną.

Symulacja obiegu chłodzenia. W celu odkrycia najskuteczniejszej metody chłodzenia w DataCenter 2020 dokonuje się precyzyjnych pomiarów cyrkulacji zimnego (niebieskie) i ciepłego (pomarańczowe) powietrza.

Symulacja obiegu chłodzenia. W celu odkrycia najskuteczniejszej metody chłodzenia w DataCenter 2020 dokonuje się precyzyjnych pomiarów cyrkulacji zimnego (niebieskie) i ciepłego (pomarańczowe) powietrza.

Potencjał dla środowiska: Optymalizacja innych branży

Korzyści ze stosowania inteligentnej technologii odnosić można w wielu branżach. Przykładowo, w wielu przedsiębiorstwa zajmujących się transportem już dziś centrala ustala w czasie rzeczywistym dokładną pozycję wszystkich firmowych samochodów na cyfrowych mapach. System pozwala skierować do klienta najbliższy wolny samochód – i w efekcie oszczędzać paliwo. W przypadku przewozowego giganta, firmy UPS, technologie komputerowe pozwoliły wysnuć zaskakujący wniosek. Okazało się, że w trakcie rozwożenia paczek po Europie najwięcej czasu pochłania zmotoryzowanym kurierom oczekiwanie na zmianę świateł przy skręcaniu w lewo. Po otrzymaniu raportu dział logistyczny UPS zmienił

koncepcję wytyczania tras – obecnie tworzy się je tak, żeby jak najwięcej skrętów wypadało w prawą stronę. Efektem końcowym było znacznie szybsze dostarczanie przesyłek oraz ograniczenie kosztów dzięki mniejszemu zużyciu paliwa, co wpłynęło na obniżenie emisji dwutlenku węgla.

Podsumowanie

W najbliższych latach stosowane będą coraz bardziej „zielone” produkty i usługi. Takie działania wymusza bowiem imperatyw ekonomiczny. Pozostaje pytanie: co będzie szybsze – wzrost efektywności w centrach obliczeniowych czy rosnący głód na moc obliczeniową?