Klimatyzacja Data Center z Know-how |
Data dodania: 09.07.2016 |
W typowej serwerowni połowa zużywanej energii elektrycznej dostarczana jest na potrzeby systemu klimatyzacyjnego. Z odpowiednim Know-how można te koszty energii znacznie obniżyć. Na rynku oferowanych jest wiele innowacyjnych rozwiązań klimatyzacyjnych, które można wykorzystać w przypadku serwerowni – tzw. data center.
Serwerownie i Data Center klimatyzowane w sposób energooszczędny i wydajny
Pomimo coraz lepszych rozwiązań systemowych w stosunku do zużycia energii zapotrzebowanie na energię elektryczną na potrzeby funkcjonowania serwerowni w ostatnich latach wciąż rośnie. W szczególności duże zużycie energii elektrycznej przez system klimatyzacyjny ma negatywny wpływ na bilans energetyczny, a tym samym koszty całkowite systemów – IT.
Prowadzi to do spirali kosztowej, co w wielu firmach skutkuje tym, że już dziś koszty energii na funkcjonowanie systemu chłodzenia przekraczają koszty inwestycyjne (zakupowe). W tym obszarze jest wyraźna potrzeba, miejsce dla dobrych i energooszczędnych rozwiązań klimatyzacyjnych.
Optymalne chłodzenie pomieszczeń Data Center jest kompleksowym zagadnieniem, Dlatego w niniejszym opracowaniu przedstawionych zostanie jedynie kilka szczególnie wydajnych rozwiązań. Podane zostaną również zalecenia i wskazówki, jak można zaoszczędzić energię w serwerowni.
Rys. 1. Modułowy system chłodzenia wodnego szaf rack – Liquid Cooling Packets firmy Rittal, [6]
Wydajna klimatyzacja Data Center
W budynku dostawcy usług IT b.r.m w Bremen serwerownia umiejscowiona jest po środku loftu o powierzchni 360 m2 i wysokości 7 metrów. Serwerownia składa się z 6 szaf Racków z serwerami i dyskami – i pełni jednocześnie funkcję ogrzewania. W sześcianie z płyt gipsowo-kartonowych z serwerami panuje 35°C zamiast zwyczajowych 17°C. Całe pomieszczenie nie wymaga zatem chłodzenia jeśli w pomieszczeniu jest poniżej 27°C.
Do temperatury zewnętrznej na poziomie -7°C pomieszczenia biur ogrzewane są przez serwerownię, z której zaciągane jest ciepłe powietrze przez izolowaną akustycznie centralę wentylacyjną. W przypadku chłodniejszych dni ogrzewanie wspomagają dodatkowe grzejniki. W okresie letnim, gdy powietrze na zewnątrz jest zbyt ciepłe, pomieszczenie serwerowni klimatyzowane jest klasycznymi splitami. Dotychczas praktyka pokazała, że klimatyzacja nie załączała się zbyt często. Poprzez to innowacyjne rozwiązanie oszczędza się 65% energii elektrycznej. Aby resztę energii elektrycznej samemu wytwarzać planowany jest montaż kolektorów słonecznych.
Rys. 2. System chłodzenia superkomutera w Centrum Informatycznym Świerk, [1]
Budynek Heinrich-Böll chodzi bez emisji CO2
W budynku Heinrich-Böll w Berlinie serwerownia również pełni funkcję źródła ciepła. W połączeniu z dobrze zaizolowanym budynkiem i niskotemperaturowym ogrzewaniem podłogowym ciepło odpadowe z Data Center w pełni wystarcza na ogrzanie budynku. Data Center utrzymywane jest w temperaturze od 25 do 27°C – woda chłodnicza wpływa do obiegu o temperaturze 23°C i wypływa z temperaturą 30°C. Chłodnie adiabatyczne obniżają latem temperaturę pomieszczeń z serwerami oraz pomieszczenia biurowe. Gdy chłodnie są odłączane lub nie są aktywne, ciepło uchodzi poprzez konwekcję bezpośrednio do pomieszczeń, przez co nie powstają żadne straty. System ten jest przez to pewniejszy od chłodzenia sprężarkowego!
Aby woda chłodząca nie spowodowała jakiś ewentualnych szkód prowadzona jest w przewodach w najniższym obszarze szaf. Tak prowadzonym systemem można odprowadzać ciepło z rozproszonych źródeł, jak również z rozdzielaczy kablowych lub instalacji telefonicznych VoIP.
Korzystne mimo długiej amortyzacji
Innym ciekawym przykładem jest budynek WWK w Monachium, którym funkcjonowała już serwerownia. Na powierzchni 280 m2 znajduje się 120 serwerów HP-ProLiant, w tym jeden Superdome Itanium, jak i 75 TByte pamięci dyskowej. Pomieszczenie serwerowni było klimatyzowane konwencjonalnym CRAC`iem (Computer Room Air Conditioner). 33% zużywanej energii przypadało na tą klimatyzację. Inwestor podczas rozbudowy serwerowni, aby zaradzić problemom z miejscem, jak i obniżką kosztów energii, zdecydował się na chłodzone wodą szafy rack.
Pomimo wyższym kosztom inwestycyjnym za szafy, udało się sprostać zapotrzebowaniu na miejsce, jak i znacznie zmniejszyć koszty za energię. Inwestor liczy się z czasem amortyzacji na poziomie siedmiu lat. Przyszłość rozwiązań serwerowni nie jest klimatyzacja pomieszczeń, lecz samych szaf. Po za tym ciepło odpadowe zużywane jest do ogrzewania budynku. W przypadku WWK zużywane jest już w 75%, a planowane jest całkowicie.
Rys. 3. Chłodzony wodą kasetonowy serwer blade [1]
Więcej miejsca dzięki chłodzeniu wodnemu
Podobna koncepcja bazuje na technologii firmy Rittal, która przykładowo wykorzystała firma Leitz, ze Stuttgartu. Inwestor przy budowaniu drugiego Data Center zdecydował się na Liquid Cooling Packets firmy Rittal. Elementy te montuje się pomiędzy dwoma szafami, które z przedniej strony pobierają powietrze o temperaturze 25°C. Powietrze wylotowe o temperaturze 42°C zasysane jest z tylnej strony szaf.
W porównaniu do pierwszego Data Center zużycie prądu na cele klimatyzacji serwerowni zmniejszyło się o 80%. Serwerownie emitują coraz mniej ciepła są za to coraz bardziej kompaktowe i zminiaturyzowane. Dlatego problem ich chłodzenia jest wciąż aktualny i potrzebuje dobrych i energooszczędnych rozwiązań. Rozwiązania z wykorzystaniem wody chłodzącej lub wymienników można zazwyczaj sprzedawać poprzez czas amortyzacji.
Chłodzenie superkomutera
Powierzchnia zaplecza odpowiadającego za chłodzenie w Centrum Informatycznym Świerk w Otwocku zajmuje 220 m2, a samej serwerowni jedynie 137 m2. Zastosowane zostało chłodzenie wodne ciepłą cieczą. System wodny podzielony został na dwa obiegi: wewnętrzny w szafach obliczeniowych oraz zewnętrzny, czyli cała reszta.
Obieg wodny wewnętrzny obejmuje serwery blade, kolektory wewnątrz szafy oraz elementy instalacji, która posiada budowę modułową. Temperatura wody (glikolu etylenowego) mieści się w przedziale 40÷48°C. Cały system zaprojektowany został dla niewielkich przepływów. Każdy serwer Blade generuje maksymalnie 375 Watów ciepła oraz wymaga do poprawnej pracy, przepływu na poziomie 1,5 litra na minutę (+/- 0,1 litra), przy zachowaniu różnicy temperatur ΔT = 5°C. Sama woda chłodząca doprowadzana jest do płyty serwera poprzez system szybkozłączek oraz kolektor umieszczony w płycie montażowej szafy. Szybkozłączki pozwalają na wyjęcie serwera z szafy w dowolnym momencie, bez obawy o wyciek cieczy chłodzącej. Działają one w sposób automatyczny, zamykając obwód zanim jeszcze serwer zostanie fizycznie usunięty z obudowy. Działa to w sposób mechaniczny, a więc niezależnie od zasilania szafy, czy też znajdujących się w niej serwerów [1].
Chłodzenie powietrzem
(...)
Wskazówki dotyczące oszczędzania energii elektrycznej w Data Center
(...)
Europejski Kodeks Dobrej Praktyki przy Data Center
Jeśli ktoś chce energetyczną efektywność swojej serwerowni ciągle polepszać i przy tym wymieniać się informacjami z innymi może bezpłatnie wstąpić do europejskiej organizacji European Code of Conduct for Data Centres. Uczestnictwo jednak nie jest całkowicie darmowe, gdyż podstawowym wymaganiem wstąpienia jest, aby serwerownia miała pomiarowy monitoring zużycia prądu i temperatury.
Ten kto należy do Code of Conduct, zobowiązuje się, do ciągłego polepszania efektywności energetycznej swojego centrum komputerowego. A środki zaradcze i wskazówki czerpie z bogatego i różnorodnego katalogu rozwiązań modernizacyjnych. Jednocześnie powinien sam raportować, co również wymaga trochę wysiłku. Na początku są to raczej banalne sprawy dotyczące oszczędzania energii: podstawowa technika pomiarowa lub jak w prywatnym zakresie „Wyłącz światło przed wyjściem”.
Przy tym oczywiście, kolejne kroki są coraz to bardziej skomplikowane i kompleksowe, ale decyzja o ich wdrożeniu zawsze jest po stronie inwestora (użytkownika). Wygenerowane oszczędności, wynikające z wprowadzanych zmian oraz zużycia prądu są regularnie raportowane do biura Code of Conduct. Na podstawie wyników wystawiany jest certyfikat, który może być wykorzystywany do celów promocyjnych.
dr inż. Maciej DANIELAK
LITEARTURA: [1] http://osworld.pl/centrum-informatyczne-swierk-chlodzenie-superkomputera/ [2] http://www.tecchannel.de/a/rechenzentren-mit-besonders-effi zienter-und-sparsamer-klimatisierung,2035041 [3] http://www.hoval.co.uk/products/serveline [4] http://www.kyotocooling.com/retrofit-applications/ [5] www.kampmann.de |
PODOBNE ARTYKUŁY:
POLECAMY WYDANIA SPECJALNE
-
Katalog klimatyzatorów typu SPLIT. Edycja 2024
-
Pompy ciepła 2023-2024
-
Pompy ciepła 2021-2022
-
Pompy ciepła 2022-2023
-
Katalog klimatyzatorów typu SPLIT. Edycja 2021
-
Katalog klimatyzatorów typu SPLIT. Edycja 2022
-
Katalog klimatyzatorów typu SPLIT. Edycja 2023
-
Pompy ciepła 2020-2021
-
Katalog klimatyzatorów typu SPLIT. Edycja 2020
-
Pompy ciepła 2019-2020