Firmy Google i Facebook używają specjalnie zaprojektowanych serwerów, wyposażonych w baterie, dzięki którym możliwe jest zwiększenie niezawodności urządzeń, a także generowanie sporych oszczędności, jeśli chodzi o zapewnianie efektywności energetycznej. Wygląda na to, że firma Goldman Sachs z Wall Street także poważnie myśli o wykorzystaniu podobnego rozwiązania.

David Schirmacher, wiceprezes firmy Goldman Sachs, w trakcie niedawnej konferencji DataCenterDynamics, która odbyła się w Nowym Jorku, w USA, wyraził taką chęć, potwierdzając, że firma pracuje nad podobnym rozwiązaniem.

Kolejna innowacja made by Google
W kwietniu 2009 roku, firma Google przedstawiła opinii publicznej serwer, który został zmodyfikowany w taki sposób, że zawierał własną baterię 12 V. Dzięki temu, podtrzymanie zasilania w przypadku przerwy dostaw prądu, zostało przeniesione z infrastruktury data center (generator prądu, zasilacze UPS) na samo urządzenie. Redukcja kosztów ogromna, jeśli wziąć pod uwagę cenę systemu zasilania gwarantowanego (koszt agregatu, dużych zasilaczy UPS, przeglądów etc.).


Ben Jai, Google Server Platform Architect – prezentuje pomysł związany z wyposażaniem serwerów we własne baterie 12V

Google wskazało, że taka modyfikacja okazała się kluczowym czynnikiem, który zadecydował o wyjątkowej efektywności energetycznej firmowych data center. Warto przypomnieć, że wykazywany w raportach współczynnik PUE (ang. Power Usage Effectiveness) dla firmowych CPD Google waha się między 1.1 a 1.2. Warto to porównać z danymi Uptime Institute, zgodnie z którymi wartość PUE dla typowego data center wynosi 2.5, co oznacza, że na każde 2.5 wata dostarczonego do budynku 1 wat jest wykorzystywany bezpośrednio przez obciążenie IT. Wg danych Uptime Institute efektywnie zaprojektowane i eksploatowane DC osiągają PUE=1.6, przy którym wynik CPD Google budzi uznanie.

Ciekawostką może być tutaj fakt, że dostawcą płyt do wspomnianych serwerów ma być firma Gigabyte, która opracowała dla Google dedykowane płyty główne wyposażone w baterie. Rozwiązanie nie pochodzi więc od wielkich graczy tego rynku, takich jak IBM czy Sun Microsystems/Oracle. Dlaczego? Hmm… No właśnie. To jest dobre pytanie. Ktoś odważy się przedstawić własne zdanie?

Facebook za ciosem
Do stosowania podobnego rozwiązania przyznała się niedawno firma Facebook, która spodziewa się, że wykorzystanie wbudowanych w serwery baterii pozwoli zredukować straty energii elektrycznej z obecnego poziomu około 35 procent do 15 procent. Nie wiemy, niestety, kto jest dostawcą sprzętu w przypadku firmy Facebook, jednak widać, że poza Google, słynącym z innowacji, także ta firma znajduje się w słynnej ćwiartce macierzy BCG (ang. Boston Consulting Group) określanej mianem: „early adopters” („wcześni adaptatorzy” – tłumaczenie własne).

Najwyraźniej to musi się opłacać. Pamiętajmy jednak, że od zachowań rynkowych typu „early adopters” do „common practice” (powszechnej praktyki) wiedzie często długa droga i różnie to już bywało, jeśli chodzi o wszelkiej maści innowacje. Czy ten pomysł na dobre się przyjmie? To w dużej mierze zależeć będzie także od pozostałych wielkich graczy. A tutaj, na razie panowała cisza. Tymczasem… Niedawno rozwiązaniem zainteresowała się firma Goldman Sachs. Jak na firmę związaną z finansami, pojawiło się także wytłumaczenie stricte ekonomiczne.

O co tutaj chodzi?
Zdaniem części specjalistów, wykorzystanie wbudowanej baterii w serwerach pozwala operatorom data center stworzyć bardziej efektywne i niezawodne systemy dystrybucji mocy. W większości CPD wykorzystuje się duży, scentralizowany system zasilaczy UPS (np. dwa zespoły po trzy zasilacze UPS wraz z modułami bateryjnymi dla dwóch osobnych torów zasilania gwarantowanego), który usytuowany jest pomiędzy stacją transformatorową, generatorem mocy, a urządzeniami, które korzystają z systemu zasilania gwarantowanego. Jeżeli nastąpi zanik zasilania z sieci miejskiej, zasilanie przełączane jest na zasilacze UPS, po czym, jeśli zanik trwa odpowiednio długo, startowany jest agregat prądotwórczy. W przeciwnym wypadku, jeśli powróci zasilanie z sieci miejskiej, podtrzymywanie zasilania z zasilaczy UPS zostaje przerwane. Za kontrolę tego procesu odpowiada System Załączania Rezerwy (SZR), w który wyposażona jest rozdzielnia główna niskiego napięcia (RGNN). Jednak w czasie, kiedy nie jest dostępne zasilanie z sieci miejskiej, ani z generatora mocy, baterie zasilaczy UPS ulegają stopniowemu rozładowaniu. W końcu, kiedy uruchomiony zostaje agregat lub wraca zasilanie z sieci miejskiej, konieczne jest doładowanie baterii. Dość dodać, że oznacza to zapotrzebowanie na energię, za którą trzeba zapłacić, a ponadto baterie kiedyś się zużyją i trzeba będzie je… Wymienić i zutylizować. To też kosztuje. Tutaj, co nie powinno nas dziwić, każdy finansista musi złapać się za głowę. Czy nie da się jakoś uniknąć tych kosztów?

Co ciekawe, w analizie kosztowności klasycznego systemu zasilania gwarantowanego ośmielono posunąć się dalej. Pod uwagę brane są nawet straty związane z konwersją prądu zmiennego na prąd stały podczas procesu ładowania baterii zasilaczy UPS. Warto przypomnieć, że prąd zmienny dostarczany z generatora mocy lub transformatora musi być poddawany konwersji na prąd stały, który używany jest do ładowania baterii zasilaczy UPS, a następnie znów musi zostać zamieniony na prąd zmienny, aby zasilić urządzenia pracujące w data center. Każda zmiana powoduje małą stratę energii. Jednak wszystkie drobne straty, zsumowane, zaczynają mieć wymierną, finansową wartość. Właśnie o takie oszczędności toczy się gra. Niesamowite? Na szczęście to nie jest jedyny powód, który ma stanowić o uzasadnieniu stosowania baterii w serwerach.


Poglądowy schemat nowego systemu zasilania gwarantowanego, który zaimplementowany został w firmie Facebook. Zamiast centralnego zasilacza UPS używana jest bateria wbudowana w zasilacz urządzenia (źródło: DataCenter Knowledge)

Goldman Sachs wkracza do gry
Zdaniem Davida Schirmachera, wiceprezesa Goldman Sachs, tradycyjny, opisany powyżej model systemu zasilania gwarantowanego oznacza nieefektywne wykorzystanie kapitału, ponieważ odpowiedzialność za niezawodność leży po stronie infrastruktury zasilania data center. Cały system zasilania gwarantowanego w każdym prawdziwym CPD stanowi długoterminowy, drogi w implementacji i utrzymaniu zasób. Z tego względu, lepszym rozwiązaniem wydaje się być rozproszenie niezawodności pomiędzy serwerami, które z założenia stanowią tanie (w porównaniu do klasycznego wyposażenia infrastruktury krytycznej), krótkoterminowe zasoby i są stosunkowo często konserwowane lub wymieniane podczas przeglądów i modernizacji.

Wyjaśnienia Schirmachera wydają się logiczne, prawda? Stara prawda zdaje się potwierdzać swoją słuszność po raz kolejny – w biznesie rozproszenie wszelkiej odpowiedzialności musi się opłacać. Trzeba bowiem przyznać, że przeniesienie odpowiedzialności za ciągłość działania z krytycznej infrastruktury CPD na fizyczny serwer otwiera ogromne pole manewru podczas konstruowania umów SLA. Szczególnie jeżeli chodzi o usługi outsourcingowe, możliwość wspierania się wirtualizacją i – dziś temat „ultra na czasie” – cloud computing. Sprytniejsi z pewnością będą potrafili zadbać o właściwie zapisy w umowach, ale… Taki jest biznes.

Bądźmy jednak fair w osądzie – teoretycznych korzyści wydaje się być sporo, od finansowych po technologiczne. Na razie jednak na tym polu za wiele się nie zmienia. Co przyniesie przyszłość – zobaczymy!

Źródła informacji:
http://www.datacenterknowledge.com/
http://blog.taragana.com/
http://news.cnet.com/8301-1001_3-10209580-92.html