Paradygmat: Wysoka wydajność przy najniższym zużyciu energii
Jak teoria wygląda w praktyce, pokazuje dostępność mocy obliczeniowej w ciągu ostatnich lat: do wykonania 5,1 miliona operacji obliczeniowych na sekundę (BOPS) potrzebowano jeszcze przed czterema laty 126 serwerów. Taką samą moc obliczeniową uzyskuje dzisiaj 17 serwerów, co może prowadzić do drastycznych oszczędności, sięgających nawet 80 proc. Tak znaczny wzrost efektywności stał się możliwy m.in. dzięki optymalnemu wspomaganiu wirtualizacji w procesorach oraz chipsetach, które sprawiają, że cztery rdzenie procesora są optymalnie obciążone. Również efektem coraz bardziej zwartej konstrukcji obwodów w układach elektronicznych jest oszczędzanie energii. Istnieją także inne składniki peceta, które mogą się przyczynić do oszczędności energetycznych: zwykłe dyski twarde zużywają lwią część potrzebnej im energii na rozkręcanie talerza oraz mechaniczne poruszanie głowicami. Ich następcy, dyski SSD, działają zupełnie bez mechaniki. W efekcie zapotrzebowanie na prąd zostaje zredukowane do mniej więcej jednej piątej – przy znacznie wyższej wydajności. Kolejnym przykładem jest pamięć RAM. Nowoczesne kości DDR3 zużywają o około 20 proc. mniej energii niż poprzednia generacja – DDR2.
Cel: W pogoni za najniższym PUE
Istnieją też inne czynniki, które mają wpływ na koszty centrum obliczeniowego – dotyczy to szczególnie chłodzenia. Aby lepiej zobrazować wydajność konfi guracji, stworzono parametr PUE (Power Usage Eff ectiveness). Wyraża on stosunek całkowitej energii zużywanej przez centrum do energii, którą zużywa w czasie normalnej pracy umieszczony w nim sprzęt komputerowy. Tradycyjne, chłodzone powietrzem centra osiągają obecnie wartość PUE rzędu 1,7–1,8. Natychmiast przekłada się to na koszty – w przypadku niektórych farm serwerowych są one tak wysokie, że już po kilku latach przewyższają nakłady na zakup komputerów, szaf i systemu chłodzenia. Gdy weźmie się pod uwagę dużą liczbę serwerów w ośrodkach, opłaca się w nich optymalizować zarówno wykorzystanie sprzętu, chłodzenia, jak i procesu zarządzania obiektem. W jaki sposób można ten cel osiągnąć, bada Intel – we wrześniu 2009 roku największy producent procesorów, łącząc siły z T-Systems, rozpoczął projekt “DataCenter 2020”. W tej eksperymentalnej farmie serwerowej na 70 m kw. umieszczono ponad 180 serwerów. System chłodzenia zajął kolejne 100 m kw. – zbliżono się więc do granicy upakowania. A wszystko to w celu ustalenia idealnych warunków pracy dla centrum obliczeniowego przyszłości. W DataCenter 2020 planuje się uzyskanie wartości PUE na poziomie maksymalnie 1,3, co stanowiłoby absolutny rekord, jeśli chodzi o efektywność energetyczną.
Potencjał dla środowiska: Optymalizacja innych branży
Korzyści ze stosowania inteligentnej technologii odnosić można w wielu branżach. Przykładowo, w wielu przedsiębiorstwa zajmujących się transportem już dziś centrala ustala w czasie rzeczywistym dokładną pozycję wszystkich firmowych samochodów na cyfrowych mapach. System pozwala skierować do klienta najbliższy wolny samochód – i w efekcie oszczędzać paliwo. W przypadku przewozowego giganta, firmy UPS, technologie komputerowe pozwoliły wysnuć zaskakujący wniosek. Okazało się, że w trakcie rozwożenia paczek po Europie najwięcej czasu pochłania zmotoryzowanym kurierom oczekiwanie na zmianę świateł przy skręcaniu w lewo. Po otrzymaniu raportu dział logistyczny UPS zmienił
koncepcję wytyczania tras – obecnie tworzy się je tak, żeby jak najwięcej skrętów wypadało w prawą stronę. Efektem końcowym było znacznie szybsze dostarczanie przesyłek oraz ograniczenie kosztów dzięki mniejszemu zużyciu paliwa, co wpłynęło na obniżenie emisji dwutlenku węgla.
Podsumowanie
W najbliższych latach stosowane będą coraz bardziej “zielone” produkty i usługi. Takie działania wymusza bowiem imperatyw ekonomiczny. Pozostaje pytanie: co będzie szybsze – wzrost efektywności w centrach obliczeniowych czy rosnący głód na moc obliczeniową?