PrimeEnergyIT - Best Practice Cases
Transkript
PrimeEnergyIT - Best Practice Cases
Energeticky úinný IT hardware a efektivní infrastruktura Pípady nejlepší praxe Podpoil: Impresum Odpovdnost: Projektové konsorcium PrimeEnergyIT, ervenec 2011 Koordinace projektu: Dr. Bernd Schäppi, Rakouská energetická agentura, Víde Redakní vedení: Jenny Therese Kupfer a Vanessa Hübner, Berlínská energetická agentura Tato brožura byla vytvoena jako ást mezinárodního projektu PrimeEnergyIT (www.efficient-datacentres.eu), který je veden v rámci programu EU „Evropská inteligentní energie“ (Intelligent Power Europe). Petisk je povolen pouze po ástech a pouze s podrobným odkazem. Vytištno na papíru, k jehož blení nebyl použit chlór. Fotografie a grafiku poskytli: str. 9 Univerzita Coimbra str. 11, 12 Altron a.s. str. 13-16,30-31 Emerson Network Power str. 18-19, 37-38 Esselunga S.p.A. str. 20 Postbank str. 23-24 regio iT aachen GmbH str. 26-27 Jerlaure str. 29 Eroski str. 33-35 IN2P3-LPSC/Grenoble Citovat jako Schäppi, Dr. Bernd: Energeticky úinný IT hardware a efektivní infrastruktura. Pípady nejlepší praxe. Víde: Rakouská energetická agentura. Publikováno jako ást evropského projektu PrimeEnergyIT (IEE/09/816/SI2.558288). Vylouení odpovdnosti Výhradní odpovdnost za obsah této publikace mají autoi. Obsah publikace nemusí nutn reflektovat názor Evropské unie. Ani EACI (Výkonná agentura pro konkurenceschopnost a inovace) ani Evropská komise není zodpovdná za jakékoli možné použití informací obsažených v této publikaci. 2 IT a infrastruktura v datových centrech a serverovnách na jejich cest k energetické úinnosti Dodávka energie a její využití je jednou nejvtších výzev naší doby. Veškerá prmyslová odvtví, instituce a veejné úady elí omezeným zdrojm a jsou žádány, aby pisply k trvalé udržitelnosti a energetické úinnosti. Zárove se informaní technologie stávají v našich životech neodmyslitelnými. Množství vzájemn vymnných dat se v souasnosti zdvojnásobí každé dva roky.* Proto oba požadavky – energetická úinnost a vysoce komplexní IT struktury – musí jít ruku v ruce. Infrastruktura a náklady na energii se v datových centrech staly ústední složkou facility a IT managementu. Pro zlepšení energetické úinnosti byla vyvinuta ada nových technologií a technologických pístup. Tato brožura poskytuje píklady nejlepší praxe pi zlepšování energetické úinnosti IT hardwaru a infrastruktury. Pípady rzných institucí ze soukromého a veejného sektoru ukazují efektivní implementace uritých energetickooptimalizaních strategií pro IT a datová centra. * EMC: Studie digitálního svta: Získávání hodnoty z chaosu. erven 2011 www.emc.com/collateral/demos/microsites/emc-digital-universe-2011/index.htm 3 4 Obsah 1. 2. 3. Evropský projekt ‘PrimeEnergyIT’ ................................................................................................. 6 Úinná datová centra – Co zpsobuje ten rozdíl? ........................................................................... 7 Píklady nejlepší praxe ............................................................................................................... 7 3.1. Systémy volného chlazení (Free Cooling) ...................................................................................... 8 3.1.1. Laborato pokroilého computingu (LCA), Univerzita Coimbra, Portugalsko .......................... 8 3.1.2. ALTRON, eská republika ............................................................................................. 11 3.2. Kombinace volného chlazení a dalšího opatení pro lepší úinnost ................................................ 13 3.2.1. CSC LOEWE Frankfurt, Nmecko ...................................................................................... Pasivní chlazení a obnovitelná energie v datovém centru .................................................. 13 3.2.2. Technická univerzita Drážany (TU Dresden), Nmecko ..................................................... Vodní a rozvadové chlazení ve vysoce výkonných datových centrech ............................. 15 3.2.3. Esselunga, Itálie ............................................................................................................. Nové datové centrum ................................................................................................... 18 3.3. Energeticky úinná úložišt dat a optimalizace sít ...................................................................... 20 3.3.1. Postbank (Poštovní banka), Nmecko ............................................................................... Použití nové pátení trasy / Virtualizace .......................................................................... 20 3.3.2. regio iT Aachen (Cáchy), Nmecko ................................................................................... Virtualizace server v kombinaci s dalšími opateními pro systém chlazení ........................ 22 3.3.3. Jerlaure, Francie ............................................................................................................. Kombinace energeticky úinného úložišt dat, optimalizace sít a volného chlazení ............ 25 3.3.4. GEMINIS, Španlsko ....................................................................................................... Optimalizace datových úložiš a sít v kombinaci s dalšími opateními v oblasti chlazení ..... 28 3.4. Optimalizace chlazení a toku vzduchu s nízkými investicemi ......................................................... 30 3.4.1. Finanní korporace ve Frankfurtu, Nmecko ...................................................................... Zlepšení toku vzduchu a teplotní hladiny v datovém centru .............................................. 30 3.4.2. Laborato subatomární fyziky a kosmologie (LPSC), Francie ................................................ Zlepšení toku vzduchu a vlhkosti ................................................................................... 33 3.4.3. Esselunga, Itálie ............................................................................................................. Rekonstrukce datového centra zajišujícího trvalou pítomnost na trhu ............................. 37 4. Kontakt ..................................................................... Chyba! Záložka není definována. 5 1. Evropský projekt ‘PrimeEnergyIT’ Vytžení vysokého potenciálu úspor u IT hardwaru a infrastruktury vyžaduje sehranou akci na mezinárodní úrovni. Opatení pro podporu vývoje trhu smrem k centrálním, energeticky úinným IT zaízením zapoaly teprve nedávno, v roce 2007. Ve srovnání s mnoha dalšími oblastmi jsou tedy technologické aktivity pro podporu trvale udržitelných ešení relativn nové a jejich tržní vliv musí dále narstat. PrimeEnergyIT podporuje vývoj trhu a poptávku po energeticky úinném centrálním IT hardwaru a infrastruktue poskytující nástroje a služby pro IT a facility manažery, konzultanty a další píslušné specialisty. Tyto nástroje a služby zahrnují: ႛ Kritéria a metriky energetické úinnosti založené na hardwaru a výkonu ႛ Pravidla pro energeticky úinná zaízení a nejlepší praxe ႛ Vzdlávání a školení IT a facility manažer a expert ႛ Pokyny a kritéria pro nákup a ízení Iniciativa PrimeEnergyIT je ovládána mezinárodním konsorciem národních agentur a výzkumných institucí ve spolupráci s velkým potem pidružených partner z prmyslu. Projekt podpoil program EU „Evropská inteligentní energie“ („Intelligent Energy Europe“). Partnei projektu ¤ 6 2. Úinná datová centra – Co zpsobuje ten rozdíl? Spoteba elektrické energie je v datových centrech a serverovnách rostoucím cenovým faktorem. Spoteba energie hardwarem a infrastrukturou bhem posledních let neustále narstala a v souasné dob dosahuje v EU asi 50TWh za rok. Pokud by vše pokraovalo dosavadním zpsobem, oekává se, že brzy dojde ke zdvojnásobení energetické spoteby. Navzdory narstající úinnosti v dsledku i zásluhou nových technologií potebují datová centra více energie než kdykoli díve. V mnoha datových centrech jsou napájení a chlazení již omezujícím faktorem. Takže výzvy, které je poteba zvládnout, jsou obrovské. Nicmén energeticky úsporné technologie jsou již po ruce. V závislosti na typech projekt mohou být zmírnny investiní náklady a také doba návratnosti mže být krátká, zvlášt jsou-li ve standardních cyklech obnovy zahrnuta opatení pro zaízení a infrastrukturu. 3. Píklady nejlepší praxe Píklady nejlepší praxe, které jsou prezentovány v této brožue, byly zkompletovány ve spolupráci s externími partnery v EU. Pípady pokrývají rzné velikosti datových center a serveroven od osmi do více než 500 server, vyžadující 50 až 1500 kW energie a 20 až 1800 m2 pozemku. Brožura se zamuje na následující technologie: ႛ Chlazení a optimalizace toku vzduchu ႛ Volné chlazení (free cooling) ႛ Kombinace volného chlazení a dalších energeticky úsporných opatení ႛ Energeticky úinná datová úložišt a optimalizace sít Doposud se datová centra zamovala hlavn na opatení na úrovni infrastruktury a chlazení. Nicmén poet úinných optimalizaních postup pro servery, datová úložišt a sí v souasnosti roste. 7 3.1. Systémy volného chlazení (Free Cooling) 3.1.1. Laborato pokroilého computingu, Univerzita Coimbra, Portugalsko Úvod Univerzitní LCA (Laboratório de Computação Avançada) hostí jeden z nejvýkonnjších superpoíta v Portugalsku, jehož jméno je “Milipeia”, a poskytuje strojový as (CPU) pedložením výzkumných projekt vdcm ze 14 univerzit a výzkumných ústav v Portugalsku. Výzkumníci z FCTUC se aktivn angažovali ve výzkumu vyžadujícím vysoce výkonné výpoty (HPC): fyzika kondenzovaných látek, fyzika vysokých energií, mížková kvantová chromodynamika, kvantová chemie a skládání a rozkládání protein. Podlahová plocha: 66 m2 Poet server/IT-rozvad: 132 Jejich elektrický píkon: 66,3 kW Období realizace: 2008 a 2010 Kategorie Tier: 6E Další informace: Carlos Patrão / ISR-UC Kontakt: [email protected] Výzkumníci fyziky kondenzovaných látek jsou spoluvývojái široce používaného TDDFT kódu v softwaru OCTOPUS, který je nyní ástí softwarového balíku PRACE (benchmark suite). Spoteba energie a využití IT Systém Starý Nový Zlepšení Spoteba energie 760 MWh/rok 670 MWh/rok Volné chlazení 90 MWh/rok Energetická úinnost na úrovni infrastruktury založená na standardizované metrice PUE = 1,44 PUE = 1,64 Využití IT Špika: 82,1 % Prmr: 72,8 % Informace nejsou zatím dostupné 0,20 Parametry prostedí Systém Starý Nový Teplota prostedí ve °C 22 ºC 22 ºC Teplota vzduchu na vstupu IT zaízení ve °C 27 ºC 27 ºC Relativní vlhkost v % 50 % - 70 % 80 % 8 IT a infrastruktura starého a nového systému Byl instalován systém volného chlazení s výkonem pibližn 170 000 BTU/hodinu (49,82kW). Pokud je venkovní teplota pod teplotou vnitního prostedí (vtšinou v noci nebo bhem zimního období), studený vzduch z venkovního prostedí se nasává do datového centra za úelem chlazení, piemž obvyklý mechanický chladicí systém je vypnutý (nebo ve stavu standby). Protože jedinými komponenty, které spotebovávají energii, jsou ventilátory, zvlhovae nebo vysoušee a ízení, pedstavují spoie na vzduchové stran velkou píležitost k úspoe energie. Kivky monitoringu zátže ped instalací volného chlazení: Graf zátže systému AVAC od 15/11/2008 do 22/11/2008 Graf zátže datového centra (bez AVAC) mezi 14/11/2008 a 21/11/2008 9 Koncepce mení Koncepce mení se zakládá na monitoringu spoteby energie (každých 15 minut bhem jednoho týdne). Micími body spoteby energie byly panelový rozvad datového centra a panelový rozvad HVAC (tj. klimatizace a ventilace). Ekonomická úinnost aplikovaných opatení Zaízení bylo 100% financováno portugalským distributorem energie v rámci portugalského programu DSM (Demand-Side Management, tj. management poptávky). Náklady na instalaci systému byly pibližn 6040 € (50 % financováno distributorem energie). Pi zohlednní finanní pobídky byla doba návratnosti odhadnuta na cca 1 rok. Klíové aspekty a faktory úspchu Volné chlazení (free cooling) samo o sob není zcela zdarma (free), protože k tomu, aby návrh pracoval, jsou poteba njaké komponenty spotebovávající energii, napíklad ventilátory a erpadla. Výhodou však je, že energie spotebovaná tmito komponenty mže být mnohem menší než energie spotebovaná jinými metodami mechanického chlazení. 10 3.1.2. ALTRON, eská republika Úvod ALTRON je evropská konzultaní firma pro datová centra, serverovny a další kritické provozy a dodavatel ešení na klí se zkušenostmi pesahujícími 200 instalací po celém svt. ALTRON nabízí kompletní ešení pro celý životní cyklus datových center. Podlahová plocha: 1800 m2 Poet server/IT-rozvad: 300 Jejich elektrický píkon: 1150 kW Období realizace: 2010-2011 Kategorie Tier: III Další informace: Altron, a.s. Kontakt: +420 261 309 111 Spoteba energie a využití IT Systém Starý Nový Zlepšení Spoteba energie ICT a NON-ICT 20,25 GWh/rok 15,21 GWh/rok 5,04 GWh/rok Spoteba energie ICT 10,07 GWh/rok 10,07 GWh/rok - Energetické úinnost na úrovni infrastruktury založená na standardizované metrice Pedchozí PUE ped zmnami technologie chlazení 2,01 Zlepšení PUE na 1,51 0,5 IT a infrastruktura starého a nového systému Klient oslovil ALTRON za úelem prodiskutování renovace, upgradu a vylepšení jednoho ze svých existujících datových center. Datové centrum bylo ve fázi i období, kdy se vnitní klimatizaní jednotky pibližovaly konci své životnosti, a také pracovalo s PUE kolem 2,01, tedy nadnormáln vyšším oproti souasným standardm. Dalšími problémy stávajícího datového centra byly relativn nižší dostupnost a nedostatené, respektive zastaralé napájecí systémy. Klient chtl dosáhnout dlouhodobých úspor, protože si uvdomil, že náklady na energii budou pokraovat v rstu stále stejným tempem, a také chtl zvýšit úinnost a dostupnost. Po diskuzi se spoleností ALTRON by zpracován projekt pro splnní požadavk klienta. Projekt byl navržen tak, aby udržel náklady na obnovu a upgrade co možná nejnižší (tím, že se choval ekonomicky pi zdokonalování a zmnách toho, co bylo nezbytné). Klíem projektu byl nový chladicí systém AHECS (ALTRON High Efficiency Cooling System), který nahradil neefektivní systém s chladicí vodou kombinovaným systémem složeným z DX systému (pímý výpar) a volného chlazení, umožujícím používat venkovní vzduch pro udržování datových sál v chladu bez poteby dodávky obrovského množství energie. Systém se také umí automaticky pizpsobovat pepínáním mezi chladicími systémy tak, jak to vyžadují parametry venkovního a vnitního prostedí (tento systém se zakládá na algoritmu navrženém spoleností ALTRON). 11 Hlavními výhodami takových opatení musí být: ႛ zvýšení úrovn dostupnosti systému na TIER 3 ႛ zvýšení úrovn servisovatelnosti bhem provozu ႛ zvýšení úinnosti chladicího systému a snížení spoteby energie chladicím systémem. Opatení pro optimalizaci systému Pvodní sálové klimatizaní jednotky byly nahrazeny novými jednotkami s kompresory, které rovnž podporují volné chlazení (DualFluid - systém s dvojím chladivem). Nov instalované dvou-chladivové klimatizaní jednotky používají nové vzdálené kondenzátory na steše budovy pro svj DX systém a dále také stávající chillery na steše, jejich nový úel je zabezpeit free-coolingovou ást systému, piemž také poskytují náhradní zdroj chladu, je-li to poteba (chladná voda). Sálové chladicí jednotky obsahují jak DX výparník tak i tepelný výmník kapalina/vzduch (kde kapalinou je voda nebo glykol), umístné vedle sebe a umožující chladicí jednotce používat kteroukoli z tchto dvou metod chlazení v závislosti na parametrech prostedí a situaci. Tento chladicí systém, který je po vtšinu roku provozován hlavn jako systém s nepímým volným chlazením (díky klimatickému teplotnímu profilu eské republiky), umožnil dosáhnout velké úspory energie. Další systémy v datovém centru byly také zlepšeny pro umístní tohoto nového chladicího systému a maximální zvýšení úinnosti. To zahrnuje nízkonapové transformátory, systémy neperušitelného napájení (UPS) a topologie chlazení a napájení. Ekonomická úinnost aplikovaných opatení Nová instalace pinesla roní energetickou úsporu 5,04 GWh. Celkové úspory provozních náklad dosahují 15,12 milión K ron. Klíové aspekty a faktory úspchu Altron a.s. v tomto pípad rozpoznal následující klíové aspekty a faktory úspchu: ႛ Podrobný technologický audit datového centra – umožnil zjistit aktuální situaci a urit nezbytná zlepšení. ႛ AHECS – vlastním vývojem navržený vysoce úinný chladicí systém, který pi náležitých klimatických podmínkách umožuje dosahovat velkých úspor. ႛ Zmna úelu stávajících jednotek a zaízení pro další úlohy – minimalizace investiních náklad (CAPEX) pi souasném snížení provozních náklad (OPEX) ႛ Zvýšení úrovn dostupnosti (TIER) hostingového centra. 12 3.2. Kombinace volného chlazení a dalšího opatení pro lepší úinnost 3.2.1. CSC LOEWE Frankfurt, Nmecko Pasivní chlazení a obnovitelná energie v datovém centru Úvod Superpoítae jsou dležité pro výzkum a prmysl. Z dvodu jejich vysokého výkonu jsou také významnými spotebii energie a celosvtovými spolutvrci emisí CO2. Superpoíta LOEWE CSC tyto záležitosti eší masivním nasazováním pasivních chladicích prvk (tím zlepšuje efektivitu využívání energie, PUE) a používáním energie vyrábné místní bioplynovou stanicí a místní elektrárnou spalující odpad. Podlahová plocha: Poet server/IT-rozvad: Jejich elektrický píkon: Období realizace: Další informace: Kontakt: 120 m2 34 416,78 kW 2010 Dr. Peter Koch Emerson Network Power Knürr GmbH [email protected] Spoteba energie a využití IT Systém Nový Spoteba energie 3,65 GWh/rok, 10 MWh/den Energetická úinnost na úrovni infrastruktury založená na standardizované metrice PUE = 1,076 Energetická úinnost na úrovni IT založená na specifické metrice 740,78 MFLOP/W Využití IT Špikové: 91 % Prmrné: 71 % IT a infrastruktura starého a nového systému LOEWE-CSC je hybridní cluster sestavený z 826 výpoetních uzl v 34 IT rozvadích. Z tohoto potu je 786 výpoetních uzl vybaveno dvma 12-ti jádrovými procesory AMD Magny-Cours a každý uzel jedním víceúelovým grafickým procesorem AMD Radeon HD 5870 GPGU (dále v textu GPGPU uzly, General-Purpose Graphics Processing Unit Nodes). Pro dosažení vysoké hustoty integrace jsou dva uzly montovány do jednoho chassis o výšce 2U, které obsahuje redundantní napájecí zdroje. Každý uzel je vybaven hlavní pamtí 32 GB / procesor. Celkov se systém skládá z 20768 procesorových jader a 786 GPGPU uzl pracujících s hlavní pamtí 55,4 TB. LOEWE CSC se používá pro výzkumné úely – neurologii, fyziku vysokých výkon atd. Obrázek 1 ukazuje místní schéma vodního systému; chladicí vodu dodávají dv chladicí vže. Chladicí okruh – CSC LOEWE 13 Chladicí systém obsahuje pouze tyi elektricky napájené komponenty: primární erpadlo (6kW), sekundární erpadlo (28kW) a dva ventilátory umístné ve vžích (4,5 kW každý). Obrázek 2 ukazuje adu IT rozvad v datovém centru. Zadní dvee serverových rozvad obsahují 65 mm hluboký tepelný výmník (zobrazen na obrázku 2), který umí uchladit až 35 kW tepla. Tepelné výmníky jsou navrženy takovým zpsobem, aby mly velmi nízkou tlakovou ztrátu pi prchodu vzduchu (~20Pa) a aby ventilátory server byly samy o sob schopné vytvoit dostatený petlak pro protlaení dostateného objemu vzduchu pes n. Chladný vzduch je pak pímo vpouštn do sálu. Servery jsou umístny „zpedu dozadu“ takže server dostává chladný vzduch ze zadní strany pedchozí ady server. Všechny servery jsou dimenzovány pro provoz pi teplot do 35 °C. Teplota v místnosti se mže pi nejhorších podmínkách dostat až na 33°C. Prmrná tepelná zátž v jednom IT rozvadi je 12,2 kW. Celková hustota zátže je 3,47 kW/m2. ada IT rozvad s chladicími dvemi Ekonomická úinnost aplikovaných opatení Na rozdíl od tradiních datových center s podobnými rozmry (s PUE 2,00) CSC LOEWE ron uspoí 3,37 GWh, což znamená roní úspory kolem 462 000 €. Klíové aspekty a faktory úspchu Velké využívání pasivních chladicích prvk a snížení potu elektrických komponent v chladicím okruhu na minimum významn snižuje spotebu energie (spoteba energie na chlazení odpovídá 7,4% spoteby IT zaízení). Snížení potu komponent v chladicím systému dále vede ke zlepšené spolehlivosti a nižším nákladm na údržbu. Ventilátory obsažené v chladicích vžích mohou být piškrcovány v celém rozsahu teplot shora až do 15°C, kdy již nejsou poteba vbec - pro teploty nižší než 15 °C se používá volné chlazení (“Free cooling”). Chladicí vže také používají princip chlazení výparem. Každý IT rozvad obsahuje autonomní mikroadi založený na Linuxu, který sleduje teplotu vzduchu a vody a pizpsobuje výkon chlazení tak, aby chladicí výkon pesn odpovídal tepelné zátži. Primární okruh mže být vybaven tetí chladicí vží pro zvýšení kapacity chladicího výkonu a zlepšení PUE na 1,049. Sekundární okruh je již navržen pro odebrání 900 kW tepelné zátže. 14 3.2.2. Technická univerzita Drážany (TU Dresden), Nmecko Vodní a rozvadové chlazení ve vysoce výkonných datových centrech Úvod IT prostedí pro moderní univerzitní vzdlávání a výzkum jako pro Technickou univerzitu Drážany vyžaduje vysoký výpoetní výkon a hodn prostoru pro ukládání dat. Servery a disková pole vykazují vysoké energetické nároky jak IT provozu tak i chlazení, a proto je efektivita využívání energie v tchto systémech rozhodujícím hlediskem. Chladicí systém na TU Drážany je kombinací uzavených a otevených rozvadových chladicích systém (sálových klimatizaních jednotek). Podlahová plocha: 450 m2 Poet server/IT-rozvad: 62 Jejich elektrický píkon: 900 kW Období realizace: 2010 Další informace: Dr. Peter Koch Emerson Network Power Knürr GmbH [email protected] Kontakt: Struktura vysoce výkonného computingu v Technické univerzit Drážany Popis IT a chladicího systému Výpoetní systém se skládá ze dvou hlavních ástí (Obr. 2): PC farmy Deimos (2576 CPU jader v dávkovém provozu s LSF (Load Sharing Facility, vybavení pro sdílení zátže), AMD Opteron x85 (dvoujádrové procesory) a SGI Altix (2048 jader Intel Itanium II Montecito 1,6 GHz). Altix, který se umístil na 49. pozici v top500 v listopadu 2006, se používá zejména pro vysoce paralelní pamov intenzivní aplikace. Deimos PC farma, zaujímající 79. místo v ervnu 2007, se používá pro kapacitní výpoty. Sál SGI Altix je chlazen sálovými klimatizaními jednotkami a Deimos farma používá uzavenou architekturu rozvadového chlazení (Knürr CoolTherm). Tepelné výmníky jsou umístny ve spodní ásti skín IT rozvade (Obr. 3). 15 Dv hlavní serverovny v Technické univerzit Drážany Zdroj energie pro výrobu chladné vody je poskytován mstskou teplárnou. Toto ešení využívá odpadní teplo bhem letních msíc, kdy se nevyužívá horká voda pro vytápní v domácnostech. Horká voda (100 °C / 89 °C) je vedena do dvou absorpních chiller York (505 kW každý), umístných v suterénu budovy. Absorpní chillery mají koeficient výkonu (COP) rovný 0,7. Chillery jsou napojeny na chladicí vže nahoe na budov. Chladicí vže používají princip chlazení výparem a volného chlazení (free cooling). Volné chlazení, respektive smíšené chlazení se používá pro venkovní teploty pod 15 °C. istý free cooling je možný pibližn 30 dní v roce. Teploty poskytované pro uzavenou architekturu rozvadového chlazení jsou 14 °C / 20 °C (chladicí voda) a 21 °C pro otevenou architekturu (chladicí vzduch). Obr. 3 ukazuje rozvad CoolTherm pro uzavené rozvadové chlazení. Výkon a energetická úinnost systému Tabulka níže ukazuje spotebu energie a úinnost koncepce chlazení. IT rozvad CoolTherm Prmrná úrove využití IT je kolem 55 % se špikami až 85 %. Roní spoteba energie je kolem 7,57 GWh. Koncepce umožuje dosáhnout PUE kolem 1,5. Pvodní PUE bylo pibližn 2,0. Výpoetní výkon vztažený k elektrickému píkonu IT zaízení je kolem 31 megaflop na Watt. Spoteba energie a energetická úinnost dané koncepce Spoteba energie 7,57 GWh/rok, 20,76 MWh/den Energetická úinnost na úrovni infrastruktury založená na standardizované metrice PUE = 1,505 Energetická úinnost na úrovni IT založená na specifické metrice 30,86 MFLOP/W Využití IT (% procenta špikového/prmrného využití) 85 % / 55 % 16 Ekonomická úinnost aplikovaných opatení Na rozdíl od tradiních datových center s podobnými rozmry, která nepoužívají odpadní teplo, uspoí datové centrum v Technické univerzit Drážany pibližn 55 000 € ron (pi cen elektrické energie 0,137 € za kWh, cena tepla 0,06 € za kWh). Klíové aspekty a faktory úspchu Klíovým aspektem zlepšeného konceptu je využití vodního, do rozvade zabudovaného chlazení s uzavenou architekturou obhu vzduchu (Knürr CoolTherm). Druhou klíovou vlastností, která pispívá ke zlepšenému PUE je používání nepímého volného chlazení a využívání „odpadního“ tepla z místní teplárny. Tento pístup výrazn zlepšil celkové PUE pedmtného datového centra. Pi tradiní koncepci se sálovými klimatizaními jednotkami (používanými pro chlazení SGI Altix) bylo PUE pibližn 2,0. Z aktuální celkové úinnosti (pi zohlednní kombinace uzavené a otevené architektury) vykazující PUE = 1,505 lze odhadovat, že pibližná úinnost uzavené architektury chlazení má PUE = 1,28. 17 3.2.3. Esselunga, Itálie Nové datové centrum Podlahová plocha: 1240 m2 Poet server/IT-rozvad: 43 rack, 110 server Jejich elektrický píkon: 80 kW Období realizace: 2011 Kategorie Tier: II Kontakt: Esselunga, IT manager, p. Enzo Greco Úvod Esselunga S.p.A. je italský maloobchodní etzec. Byl prvním etzcem supermarket v Itálii a byl prvním, který pedstavil nakupování on-line a organické výrobky z vlastní produkce. S 20.000 zamstnanci a 140 obchody mla spolenost v roce 2010 obrat 6,3 miliardy Euro. Esselunga ovládá asi 10 % italského trhu distribuce potravin. Je zaazována na 4. místo mezi nejziskovjšími spolenostmi evropského maloobchodního sektoru (v pomru ke své velikosti) a je 13. nejvtší italskou spoleností. Spoteba energie a využití IT Systém Starý Nový Spoteba energie 1 000 000 kWh/rok není k dispozici 2700 kWh/den Standardizovaná metrika PUE = 1,85 PUE = 1,30 pi zátži 100% Využití IT Prmrné: 30 % Prmrné: 30 % Špikové: 50 % Špikové: 50 % Parametry prostedí Systém Starý Nový Teplota prostedí ve °C 23 25 Relativní vlhkost v % 50 50 Cílové nastavení jednotky sálové chladicí jednotky ve °C (CRAH set point) 20 24 Popis IT a chladicího systému ႛ Prmrné stáí IT zaízení podle typu: 2,5 roku (výmna IT po 5 letech) ႛ Prmrné stáí zaízení datového centra podle typu (zaízení distribuce napájení a chlazení): nové ႛ Chlazení a vzduchotechnika: VZT jednotky zapojené v redundantním vodním chladicím systému (elektrická zátž: 114+114 kW; zátž volného chlazení 7,6+7,6 kW; chladicí výkon 252+252 kW). ႛ Celková projektovaná nominální zátž datového centra: 250 + 250 kVA (maximální, s redundantní a škálovatelnou UPS a napájecím systémem) ႛ Procenta modelového datového centra: 50 % databáze, 30 % aplikaní a web služby, 20 % základní služby IT infrastruktury ႛ Procentní podíl server používající virtualizaci: 250 instalovaných virtuálních server 18 V sále datového centra je možné pozorovat všechny pro datové centrum typické IT komponenty: servery, datová úložišt, sí, napájení a zaízení pro nepetržitý provoz. Díky nové výstavb je v novém datovém centru vytvoena vyhrazená a oddlená místnost pro UPS (energocentrum). Typy zde provozovaných služeb pedstavují hlavn databáze, datové sklady, aplikaní servery a základní služby infrastruktury (e-mail, souborové servery, …). Úrove požadované redundance je Tier 3. Opatení pro optimalizaci systému Stávající datové centrum pro trvalou pítomnost na trhu prošlo celkovou rekonstrukcí v roce 2011. Nové datové centrum pro trvalou pítomnost na trhu je pro spolenost Esselunga redundantní a identickou IT službou. Prvním krokem bylo vyhodnocení parametr prostedí a IT zátží: novému provozu byla vnována zcela nová ást budovy. Analýza pedpovídaných zátží a klimatických parametr v regionu umožnila pijetí chiller s volným vodním chlazením (6000 hodin za rok). Nová konstrukce datového centra, v porovnání se starou, umožnila rozdlení rzných IT zátží (servery, sálové poítae (mainframes), datová úložišt a sí), aby bylo možné úinnji spravovat parametry prostedí. Chillery jsou umístny na severní stran budovy, aby se optimalizovala úinnost volného chlazení (spoie): Pi venkovních teplotách pod 17 °C se snižuje požadavek na chladicí výkon kompresoru, který se pi teplot po 10 °C vypíná. V oblasti IT rozvad, rozdlené do 5 ostrvk, je proces chlazení zajištn adovými chladicími jednotkami (in-row) a optimalizován za pomoci uzavení horké uliky. Efektivita chlazení pi jakýchkoli parametrech zátže byla simulována CFD softwarem (Computational Fluid Dynamics). Ekonomická úinnost aplikovaných opatení V roce 2010, po prvním vyhodnocení stávajících systém a dalších možností, se jevilo vytvoení nového datového centra pro úel spolenosti povinností. Veškeré zásahy provedené ve stávajícím datovém centru zlepšily vnímavost celého IT personálu vi opatením pro zlepšení úinnosti: úkol znl postavit nové, úinné a spolehlivé datové centrum s dlouhou životností. Doba návratnosti úinných ešení je v oblasti chlazení o hodn kratší než oekávaná životnost celého datového centra (kolem 4 let oproti 10). Klíové aspekty a faktory úspchu Primárním faktorem úspchu je široký zájem o úinnost a dobrý provoz IT a také technický personál, který je podporován z úrovn managementu. Po zkušenosti s renovací starého centra pro trvalou pítomnost na trhu se citlivost na energetickou úinnost zvýšila: V nákupním procesu byl brán zetel na všechny aspekty týkající se úinnosti. Aby se dosáhl cíl stanovený výkonným editelem (CEO), byly technické charakteristiky každého komponentu vyhodnoceny pod dohledem IT manažer a koordinátora procesu. 19 3.3. Energeticky úinná úložišt dat a optimalizace sít 3.3.1. Postbank (Poštovní banka), Nmecko Použití nové pátení trasy / Virtualizace Úvod Poet síových zaízení: 540 Elektrický píkon celé sít: 612.712 kWh/rok Období realizace: 3 kroky pro 12 msících Kategorie Tier: III/IV Kontakt: p. Andreas Gilberg V roce 1996 Postbank zídila svoji pátení sí na základ ATM technologie (asynchronní režim penosu, Asynchronous-Transfer-Mode) a od té doby ji stále rozšiovala. Pátení sí dosáhla konce svého životního cyklu v roce 2007. Dodatená rozšiování mohla být realizována pouze za cenu zvýšení složitosti a náklad, což nebylo vhodné ani z ekonomického ani z technologického úhlu pohledu. Proto se zahájil projekt „Nová pátení sí“ zamený na vyhodnocení a následné zavedení nových technologií. IT a infrastruktura starého a nového systému V tomto projektu byla zvolena pátení sí založená na MPLS (Multi-Protocol-Label-Switching, protokol pro pepínání podle návští). Sí založená na této technologii nabízí optimální charakteristiky odpovídající vysokým požadavkm divize Postbank IT a významn zlepšuje energetickou bilanci. Pro Postbank jakožto podnik certifikovaný podle ISO 14001 je nízká spoteba energie významným kritériem pi výbru nových technologií. S technologií MPLS se fyzická sí rozdlí do logických, nezávislých sub-divizí neboli klient. Tato virtualizace spluje zvýšené požadavky na škálovatelnost a snadnou správu sít a rovnž také na ochranu datových spojení ped neoprávnným pístupem. Nová pružná a zašifrovaná pátení sí byla pedstavena poátkem roku 2009. Postbank tak jako „early mover“ (asný tahoun) nastavila standardy v bankovním sektoru. Cestovní mapa datového centra 20 Opatení pro optimalizaci systému Po pedstavení pátení sít MPLS byly síové prvky z datového centra odstranny a nahrazeny krok za krokem novými komponenty. Tyto komponenty a s nimi spojená zmna v technologii poskytují odlišné logické sít a dokonce i síové porty, zatímco stará technologie používala dedikovaný hardware a elektrické spoje. Díky sub-divizím nový systém dovoluje dramatickou redukci nezbytného hardwaru na všech lokalitách/instalacích. Zatímco staré datové centrum a systém poboek vyžadoval pibližn 400 router a switch s roní spotebou energie cca 1.438.480 kWh, virtualizovaná sí potebuje pouze 188 síových komponent, které ron spotebují kolem 588.234 kWh. Výsledkem je, že dosažené energetické úspory dosahují více než 59 %. Zavedení logicky oddlených sítí dále znamená, že decentralizované firewally jsou nyní (nov) redundantní. Toto opatení snížilo roní spotebu energie z 63.072 na 24.528 kWh, což je ekvivalent znamenající více než 61% úspor energie za firewall servery. Poslední fáze virtualizaního procesu bude završena koncem bezna 2012. Poslední komponenty dedikované distribuní sít budou do té doby z vývojové sít Postbank odstranny. Tento krok bude v dsledku znamenat úspory energie pes 52 % neboli 170.820 kWh ron oproti dnešní distribuní infrastruktue. Zavedení tchto nových technologií celkem snížilo spotebu energie v pedmtných oblastech o 1.059.610 kWh ron, což pedstavuje 58%. Ekonomická úinnost aplikovaných opatení Ve srovnání s relativn dlouhou dobou provozu síových zaízení byly, vedle rychlé „návratnosti investic“, nejdležitjší ekonomickou hodnotou provedených opatení snížené náklady za energii dosažené díky energetickým úsporám ve výši 58 %. S ohledem na zlepšenou bezpenost a zvýšenou dostupnost byl výsledkem také významný marketingový potenciál pro poskytované služby. Shrnutí dležitých aspekt: ႛ Nová síová zaízení s životním cyklem 10 let ႛ Návratnost investic je pibližn < 18 msíc ႛ Nahrazení switch je navázáno na životní cyklus server kvli migraci softwaru Klíové aspekty a faktory úspchu ႛ Pedbžné testování konfigurace sít v laboratoi Cisco v San Jose ႛ Migrace pro neperušitelný provoz ႛ Zavedení holistické (celostní) virtualizace od klienta až k portu serveru ႛ Zlepšená bezpenost šifrováním všech WAN/DWDM pipojení (pro penos dat mezi datovými centry DC-Bonn a DC-Frankfurt) ႛ Všechny uplinky WAN/LAND nastaveny na aktivní stav, což vede k vysokým úsporám náklad a zlepšení dostupnosti (>99,999%) 21 3.3.2. regio iT Aachen (Cáchy), Nmecko Virtualizace server v kombinaci s dalšími opateními pro systém chlazení Úvod Podlahová plocha: 220 m2 Poet server/IT-rozvad: Pes 50 rack a kolem 480 server Jejich elektrický píkon: 150 kW Období realizace: 2008 - 2010 Kategorie Tier: II a III Další informace: www.regioit-aachen.de Kontakt: p. Bernhard Barz Tel.: 0241-413 59 96 26 Jako poskytovatel IT služeb je regio iT aachen partnerem pro obce, místní podniky, distributory energií, spolenosti pro nakládání s odpady, školy a neziskové organizace. Spolenost regio iT aachen nabízí strategické a projektov orientované IT konzultaní služby, integraci, IT infrastrukturu a komplexní servis. V souasnosti regio iT aachen se svými cca 280 zamstnanci a 20 praktikanty podporuje pes 16.000 klient a 100 škol a vyšších odborných škol. Dodáváme naše služby se zajištnou kvalitou a také, protože jsme první místní datové centrum, jsme tikrát certifikováni podle mezinárodních norem ISO 9001, ISO 20000 a ISO 27001. regio iT aachen provozuje IT a také pidruženou infrastrukturu. Vedle toho menší ást prostoru se pronajímá. Budova datového centra má i další využití, které bylo z energetické analýzy vyjmuto. IT a infrastruktura starého a nového systému Na základ monitoringu energie regio iT aachen od roku 2007 soustavn ídí energetické požadavky související s provozem datového centra. S roní spotebou energie dosahující 1.250.000 kWh pro IT a 640.000 kWh pro podprnou infrastrukturu (distribuce napájení, klimatizace atd.) je podíl spoteby IT zaízeními vi celkové spoteb energie pibližn 65 % (což odpovídá prmrnému PUE 1,5). Datové centrum je zalenno do kanceláského komplexu a skládá se ze 6 serveroven. Využitelná plocha pro IT o velikosti 220 m2 se zcela provozn zaplnila v roce 2009. Datové centrum mlo více než 50 IT rozvad a kolem 480 server pi nominálním elektrickém píkonu IT zaízení 155 kW. Pi provozu na plný výkon byly dosaženy limity systému chlazení. Výkonová hustota IT byla 1 kW / m2 podle plochy serveroven. Spoteba energie IT infrastrukturou vzrostla o více než 25 % bhem jednoho roku. Oproti ostatním datovým centrm byla výkonová hustota se svými 5.000 kWh/m2 na horní hranici. Prmrná instalovaná kapacita byla 300 W na server. IT infrastruktura se skládala ze 480 rozvadových server, na kterých bželo pibližn 120 virtuálních server. V souasnosti není datové centrum vybaveno volným chlazením a koeficient výkonu klimatizace byl pomrn slabý (COP=2). Požadavky na dostupnost datového centra jsou srovnatelné s klasifikací Tier II. Nkteré komponenty splují požadavky Tier III. 22 Opatení pro optimalizaci systému Údaje z monitoringu energie se detailn analyzují s vdeckou podporou Technické univerzity Berlín. Výsledky ukazují, že stávající chladicí zaízení se využilo na plný výkon a že další vývoj IT by nebyl s existující infrastrukturou možný. Vstupní a výstupní teploty v systému obíhajícího vzduchu byly velmi nízké. Kvli zbytenému míchání horkého a studeného vzduchu v ulikách mezi IT rozvadi bylo úsilí chladicího systému píliš vysoké. Vedle toho velmi nízké teploty chladicí vody vedly ke slabému COP chladicího zaízení. Ve dvou místnostech byly na základ analýzy z roku 2009 naplánovány a zprovoznny konkrétní opatení pro zvýšení úinnosti. Nevyužívané oblasti rozvad byly dsledn uzaveny (záslepkami, krycími panely) a byl optimalizován píchozí tok vzduchu ze zdvojené podlahy. Rozložení teploty ve studené ulice 2008/2009 Rozložení teplot v horké ulice 2008/2009 Poté se krok za krokem zvyšovaly teploty vstupního a výstupního vzduchu obíhajícího klimatizaním systémem ze 14/21 °C na 16/24 °C. Výsledkem je, že klimatizaní zaízení pro cirkulaci vzduchu lze provozovat s vyšším teplotním spádem (T = 6 až 7 K). Úinnost penosu tepla se výrazn zlepší. Nárst vstupní a výstupní teploty chilleru je možné vidt jako další potenciál pro lepší úinnost, který se sice nyní nevyužívá, ale mohl by být uchopen v budoucnosti. Pro místnost s nejvyšší výkonovou hustotou a její úzké hrdlo –chlazení– bylo instalováno uzavení studené uliky, jehož výsledkem je mnohem lepší separace horkého a studeného vzduchu v serverovn. Pro pípravu dalších opatení byla instalována pídavná micí zaízení ke zjištní teplot na rozvadích (36 micích bod) a stanovení toku a teploty vzduchu v 5 bodech pod zdvojenou podlahou. V období 2008 až 2010 se IT infrastruktura virtualizací posunula na cca 500 fyzických a 750 virtuálních server. Energetický píkon 150 kW bylo možné udržet beze zmny díky doprovodným opatením pro optimalizaci chlazení. Poet IT služeb a aplikací se mohl se zlepšeným chlazením a virtualizací výrazn zvýšit bez dalších zásah do podprné infrastruktury datového centra. Spoteba energie a využití IT ve staré a nové IT instalaci V dsledku inteligentní kombinace virtualizace a zlepšeného chlazení bží v datovém centru mnohem více IT služeb a aplikací než v roce 2009 pi tém stejné spoteb energie, akoli chladicí zaízení dosáhlo svého plného výkonu již v roce 2009. Produktivitu datového centra bylo možné zlepšit pi stabilních nákladech (za elektrickou energii). 23 V dsledku virtualizace vede lepší využívání kapacity IT také k lepšímu využívání UPS. Ztráty se snižují v pomru s elektrickým píkonem. Pomr mezi fyzickými a virtuálními servery se zlepšil ze 480/120 na 500/750 pi stabilním požadavku na píkon 150 kW. Upozornní: Popisovaná zlepšení úinnosti nejsou zohlednna v PUE, jelikož PUE není bezprostedn svázáno s vlastním používáním IT. V dsledku doasného paralelního provozu server bhem virtualizaní smny se PUE dokonce krátkodob navýšilo. Uzavení studené uliky Ekonomická úinnost aplikovaných opatení Kapitálové (investiní) náklady na zlepšené chlazení byly menší než 25.000 Euro. Doba návratnosti je kratší než 1 rok, protože výdaje za elektrickou energii se snížily pibližn o 15 %. Klíové aspekty a faktory úspchu ႛ Inteligentní kombinace virtualizace, konsolidace a zlepšeného chlazení ႛ V dsledku virtualizace zlepšené využívání IT zaízení také vede k lepší úinnosti UPS. Ztráty na UPS se snižují stejnou mrou jako energetický píkon IT zaízení. 24 3.3.3. Jerlaure, Francie Kombinace energeticky úinného úložišt dat, optimalizace sít a volného chlazení Úvod Podlahová plocha: 70 m2 Cílem „zeleného datového centra“ je celkov snížit energetické ztráty v technologických Poet server/IT-rozvad: 10 server rack, max. 20 souborech, použít virtualizaci k optimalizaci IT Jejich elektrický píkon: 50 kW infrastruktury a, kde je to možné, získat zpt kalorie pro výrobu energie nebo topení. Období realizace: 2011 JERLAURE naprosto podporuje tento pístup – Kategorie Tier: III volný prostor pro pokrok je znaný, jelikož Kontakt: www.jerlaure.fr existuje velký poet energeticky nároných datových center, ve kterých se bhem doby nashromáždilo mnoho špatných instalací a praktik nevalné úrovn. Finanní úspory jsou výchozím bodem všeobecného uvdomní, který zasahuje do všech hledisek provozování IT, a to vetn aplikaních prostedí. Služby, produkty, ešení nebo principy zlepšující úinnost datového centra zahrnují: inteligentní napájecí panely (PDU), modulární záložní zdroje (UPS), boní chladicí jednotky umístné v ad IT rozvad, uzavení uliek pro separaci a ízení tok vzduchu, škálovatelné zaslepovací panely, pepážky a deflektory pro proudní vzduchu, energeticky úinné chladicí systémy používající odtahové ventilátory s variabilní rychlostí, energeticky úinné chladicí systémy s ízením výkonu kompresor, uspoádání IT rozvad v sále podle principu studená ulika – horká ulika, nástroje pro management datového centra, zvýšení teploty pivádného chladicího vzduchu (18 °C, místo 16 °C), analýza komponent klimatizaního etzce pi zohlednní zátže datového centra. Spoteba energie a využití IT Systém Datové centrum Jerlaure Spoteba energie 20 kW (na zaátku využívání) Standardizovaná metrika PUE = 2,34 od ervna do záí 2011, pedpokládal se pokles Systém Datové centrum Jerlaure Teplota prostedí ve °C 21 °C Relativní vlhkost v % 20 °C Cílové nastavení sálových chladicích jednotek ve °C (CRAH set point) 50 % Popis IT systému IT systém obsahuje: ႛ 2 blade serverová chassis s 28 blade servery ႛ Kolem 20 fyzických server ႛ Vžové servery UNIX Existují dv redundantní datová centra, vzájemn oddlená stovkami kilometr. 25 Opatení pro optimalizaci výkonu ႛ Chillery ve volném chlazení, podízené chladicím jednotkám (regulace teploty podle velikosti chlazené tepelné zátže) ႛ Chladicí jednotky s variabilním prtokem ႛ Vysoce úinný záložní zdroj (UPS) s úiníkem 0,9 ႛ Uzavení studených uliek ႛ Uzavená trasa pro návratový tok vzduchu Koncepce mení Existuje 5 micích stanic: ႛ 3 stanice jsou instalovány ve tech elektrických distribuních rozvadích (UPS, chladicí systémy, další aplikace v datovém centru jako napíklad osvtlení) ႛ 2 stanice jsou instalovány v elektrických distribuních rozvadích za UPS (zdroj IT zaízení) Software získává všechna data z micích stanic a poskytuje rozhraní pro výpoet PUE ze zaznamenaných dat. Výpoty mohou být provádny po uritých periodách (den, týden, msíc, rok). Shrnutí Není-li ízení vlhkosti výslovn požadováno zákazníkem, mlo by se vyhodnotit, zda je skuten potebné nebo nikoli, protože ovlivuje celkovou úinnost datového centra. V datovém centru této velikosti není dodávka erstvého vzduchu pro hygienickou výmnu podstatná, takže ízení relativní vlhkosti není bezpodmínen nutné, nepožadují-li jej nkteí stavitelé. Uzavení návratového vzduchu je technickou možností, kterou lze s uzavením studené uliky rovnž zvážit (závisí na výšce stropu). Zaprvé optimalizuje správu tok vzduchu jejich co nejvtším oddlením. Vedle toho snižuje teplo vyzaované z prostedí sálu a poskytuje vyšší komfort personálu, který mže uvnit serverovny pracovat. Koncepce optimalizace datového centra musí integrovat prvky píznané pro „kontejner” a další, specifické pro „obsah“. Je zásadní pracovat na environmentálních aspektech „obálky“ a optimalizovat technické architektury tím, že podporujeme provozovatele v zavádní provozních, ídicích a prostorov optimalizaních postup a opatení v jejich datovém centru. Optimalizace „obsahu“ pak znamená konsolidaci, virtualizaci používání server s nízkou spotebou energie. Co se týe „obálky“, musí umožovat ízení tepelné výmny. Její umístní a její koncepce jsou zásadními parametry, rovnž také výbr chladicí metody a komponent chladicího etzce. etzec elektrického napájení je také vysoce energeticky nároným prvkem. Jeho architektura musí být pizpsobena k dané aplikaci a vyvarovat se zbyteného naddimenzování. Musí se nastudovat mnoho dostupných technologií a musí se urit nejlepší kompromis mezi investiními a provozními náklady. 26 Klíové aspekty a faktory úspchu Nasazené chladicí systémy by mly umožnit dosažení významných úspor energie. Využívání technologie (chiller a chladicích jednotek) je, co se výroby chladu a jeho distribuce týe, homogenní. Proto rzné prvky etzce mezi sebou komunikují, aby pizpsobily dodávku chladu aktuálním potebám. Nastavení cílové teploty pro vodu (set pointu) je v rozsahu 7-12°C, v závislosti na potebách chlazení set-point automaticky narstá a dodává se pesn jen potebný a dostatený tok a teplota vody, které respektují nastavený set point. 27 3.3.4. GEMINIS, Španlsko Optimalizace datových úložiš a sít v kombinaci s dalšími opateními v oblasti chlazení Podlahová plocha: 400 m2 Poet server/IT-rozvad: 95 Období realizace: 2008 - 2009 Kategorie Tier: II Další informace: www.eroski.es Spoteba energie a využití IT Systém Starý Nový Zlepšení Spoteba energie 380 kW 287 kW 93 kW Energetická úinnost na úrovni infrastruktury založená na standardizované metrice PUE = 1,9895 PUE = 1,6996 PUE = 0,2899 Energetická úinnost na úrovni IT založená na specifické metrice 191 kW 169,43 kW 21,57 kW Využití IT 60 % 85 % Parametry prostedí Systém Starý Nový Teplota prostedí ve °C 22,5 °C 24 °C Teplota vzduchu na vstupu IT zaízení ve °C 19 °C 23,5 °C Relativní vlhkost v % 47 °C 42 °C 28 Topologie napájení rozdleného redundantního systému 1 Transformátor 1600 kVA 2 Náhradní zdroje 1375 kVA 2 Automatické pepínae smru napájení 1 UPS pro 500 kVA v každé vtvi Opatení pro optimalizaci systému K vyhodnocení spoteby energie, úinnosti a provozní zátže byla proveden monitoring napájení na vstupu hlavního vypínae a na výstupních panelech záložního zdroje (UPS). Energetická úinnost IT infrastruktury by mohlo zlepšit zohlednní následujících klíových aspekt: ႛ Snížení obecného míchání horkého a studeného vzduchu na návratové trase vzduchu do chladicích jednotek. ႛ Eliminace neobsazených U-pozic a otvor v IT rozvadích. ႛ Izolace horkých a studených uliek v IT infrastruktue. ႛ Utsnní otvor (výez) v podlaze a prostoru pod zdvojenou podlahou. ႛ Nastavení cílových teplot klimatizaních jednotek. ႛ Virtualizace a konsolidace IT infrastruktury 29 3.4. Optimalizace chlazení a toku vzduchu s nízkými investicemi 3.4.1. Finanní korporace ve Frankfurtu, Nmecko Zlepšení toku vzduchu a teplotní hladiny v datovém centru Úvod Podlahová plocha: 750 m2 Poet server/IT-rozvad: 90 Jejich elektrický píkon: 540 kW Období realizace: 2010 Další informace: Dr. Peter Koch Emerson Network Power Knürr GmbH [email protected] Kontakt: Tažena ekonomickým poklesem, roku 2009 spolenost zaala vyhledávat píležitosti znamenající podstatnou krátkodobou úsporu náklad. Spoteba datového centra byla identifikována jako jeden z potenciálních cíl této iniciativy. K prokázání navržené koncepce bylo za úelem upgradu vybráno jedno stedn velké datové centrum. Oekávalo se zavedení opatení bhem 3 msíc a dosažení amortizaní lhty kratší než 18 msíc od poátení investice. Klíovým požadavkem bylo použít všechny prvky dodateného vybavení bez perušení provozu datového centra. IT a infrastruktura starého a nového systému Obrázek 1 ukazuje ponkud zevšeobecnný nákres podlahy datového centra. Chlazení pro IT zaízení je poskytováno sálovými chladicími jednotkami stojícími na podlaze kolem, které dodávají chladicí vzduch prostorem pod zvýšenou podlahou a pes perforované podlahové panely k rozvadm s IT zaízeními. Velký sál (750 m²) byl pvodn navržen pro IT zátž o velkosti 540 kW, což znamená docela nízkou výkonovou i tepelnou hustotu kolem 750 W/m². Ve skutenosti byly IT rozvade osazeny na stední výkonovou hustotu, v prmru na 6 kW. Dostupná energie tedy postauje práv pro 90 Zjednodušená koncepce podlahy datového centra IT rozvad, piemž ponechává tém polovinu sálu prázdnou. Kvli této skutenosti a za úelem poskytnutí dostateného množství chladicího vzduchu, se používaly neobvykle široké studené uliky. Pesto chladicí systém musel pracovat s nízkou teplotou vzduchu na úrovni kolem 16 °C, aby zmírnil horká místa (hotspoty) v horních pozicích IT rozvad. Podél dvou stn a na stedové linii sálu bylo instalováno 14, nkolik let starých sálových chladicích jednotek pracujících v systému s chladicí vodou. Jednotky byly vybaveny ventilátory pro stídavé napájení (AC ventilátory), pracujícími s konstantní rychlostí a elektrickým píkonem 71,5 kW, tj. 13,2 % zátže IT. To je mnohem více, než lze srovnávat s dnešní špikou. Pi úrovni náklad 0,137 € za kWh dosahovaly souhrnné výdaje na energii pro sálové chladicí jednotky až 85.800 €. 30 Opatení pro optimalizaci systému Pro dosažení maximální energetické úinnosti je ešení postaveno na tech hlavních prvcích: ႛ dsledné oddlení chladného pivádného vzduchu od horkého návratového vzduchu ႛ dodávka vzduchu ízena podle požadavku ႛ set point odpovídá nejvyšší možné teplot chladicího vzduchu (k prodloužení interval volného chlazení) Koncepce studená ulika / horká ulika Za daných poáteních podmínek – neobvyklé šíce studené uliky 3600 mm – nebylo možné instalovat standardní uzavení studené uliky. Byly navrženy speciální sekce o hloubce 600 mm, používající standardní rámy a dvee IT rozvad, které se pipojily z elní strany ke stávajícím IT rozvad (viz obrázek 2). Tyto rozšiující sekce zachytávají vzduch vycházející ze zdvojené podlahy a dodávají jej k zaízením v IT rozvadích. Pro zamezení recirkulace vzduchu pes IT rozvade byly všechny volné pozice a otvory osazeny záslepkami. Takto se veškerý chladný vzduch vede pes IT komponenty, je zabránno jakékoli recirkulaci horkého vzduchu a hotspoty jsou zcela vyloueny. Pro umožnní ízení toku vzduchu musely být stávající AC ventilátory v sálových klimatizaních jednotkách vymnny za EC ventilátory s iditelnou rychlostí. EC ventilátory (Electronically Commutated) již mají lepší energetickou úinnost pi plné rychlosti než tradiní ventilátory. Vedle toho umožují dosáhnout obrovských úspor energie ízením rychlosti ventilátor. Pi rychlosti 50% je spoteba energie EC ventilátor kolem jedné osminy spoteby odpovídající 100% rychlosti! 31 Pro tení hodnot z teplotních senzor umístných v IT rozvadích a ízení rychlosti ventilátor v sálových klimatizaních jednotkách (CRAC) byl navržen a implementován ídicí systém založený na PLC. Všech 14 CRAC jednotek bží paraleln, aby mly nejlepší možnou energetickou úinnost. ízením rychlosti ventilátor se systém neustále pizpsobuje aktuálním požadavkm IT zaízení na chlazení. V pípad výpadku jedné CRAC jednotky ostatní jednotky zvýší rychlost, aby udržely požadovaný tok vzduchu. Výsledkem zavedených opatení bylo snížení rychlosti ventilátor na mén než 50 % z plné rychlosti a tím i dosažení podstatných úspor energie, jak je uvedeno dále v textu. Jako výsledek dsledného oddlení vzduchu mohla být teplota pivádného chladicího vzduchu zvýšena ze 16°C na 22°C. V tomto pípad z toho vyplynula pouze trochu zlepšená úinnost chladicího systému. Stávající systém chladicí vody pro budovu musel zstat nedotknut, takže z rozšíeného volného chlazení nebylo možné dosáhnout žádných zisk. Pouze mohl být rozšíen provoz stávajícího chladicího systému s erstvým vzduchem do vyšších teplot prostedí, což vygenerovalo njaké úspory. Ekonomická úinnost aplikovaných opatení Hlavním výsledkem zavedených opatení je podstatné snížení spoteby energie sálovými chladicími jednotkami. To je do urité míry založeno na lepší energetické úinnosti EC ventilátor, ale z vtší ásti na regulaci rychlosti ventilátor v sálových jednotkách podle požadavku. V prmru ventilátory bží s rychlostí 40 až 50 % a prmrná celková spoteba energie je 4,8 kW, což odpovídá 0,9 % napájené IT zátže. Pro srovnání uveme, že pedchozí spoteba ventilátor byla 71,5 kW, což odpovídá 13,2 % napájené IT zátže. Roní úspory výdaj za elektrickou energii dosahují až 80.000 €. Navíc dalších 70.000 € se získalo ze zvýšené teplotní hladiny. Celkové roní úspory: 150.000 €. Shodou okolností se celková investice rovná roním úsporám: 70.000 € za výmnu ventilátor, 45.000 € za speciální rozšíení IT rozvad a 35.000 € za ídicí a monitorovací systém – celkem 150.000 €. Amortizaní lhta: 1 rok. Klíové aspekty a faktory úspchu V tomto pípad byly zcela zásadní ti hlediska: 1. Schopnost navrhnout speciální elní sekce pro IT rozvade sloužící k oddlení vzduchu v netypickém sále, vycházející ze standardních díl. 2. Schopnost provádt pístavby a zmny v datovém centru bez perušení provozu, zakládající se na vhodných technologiích a dílech a také na promyšleném postupu implementace. 3. Schopnost poskytovat spolehlivé pedpovdi o nákladech a dosažitelných úsporách, aby oekávaný ekonomický zisk nastal. Dalším dležitým aspektem bylo schválení návrhu sdružením VdS (nmecké sdružení pro požární bezpenost). 32 3.4.2. Laborato subatomární fyziky a kosmologie (LPSC), Francie Zlepšení toku vzduchu a vlhkosti Podlahová plocha: 20 m2 (IT rozvade) a 20 m2 (provozní zázemí) Poet server/IT-rozvad: 8 Jejich elektrický píkon: 60 kW Období realizace: 2008 - 2011 Kategorie Tier: II Kontakt: [email protected] Spoteba energie a využití IT Systém Nová instalace Spoteba energie 525 600 kWh/rok (60kW) Energetická úinnost na úrovni infrastruktury založená na standardizované metrice PUE = 1,078 (0,045 chlazení a 0,033 UPS) Využití IT CPU prmrné využití 50%, špikové 100% Velká ást spoteby je vázána na datové úložišt, kde využití není velmi relevantní Parametry prostedí Systém Nová instalace Teplota prostedí ve °C 13 až 23 °C vpedu 23 až 39 °C vzadu Teplota vzduchu na vstupu IT zaízení ve °C 13 až 23 °C vpedu Relativní vlhkost v % 10 % až 80 %, (zídka << 0,5 % relativní vlhkost 85 %) IT a infrastruktura starého a nového systému IT služby laboratoe zahrnují web, e-mail, externí pístup, databáze a datová úložišt. Vtšina služeb je virtualizována s VMWARE (3 vmware servery, redundance napájecích zdroj, servery napájené pes UPS (30 kVA)). Zdroje pro výpoetní sí LHC (WLCG) : LPSC poskytuje zdroje pro WLCG na úrovni datového centra Tier 2. (700 jader, 700 TB (hrub)) Výpoetní sál LPSC používá volné chlazení s duálním režimem: Pro 85 % doby, kdy je venkovní teplota nižší než 25 °C, se mže používat pímé volné chlazení vzduchem a pro zbývající období se používá volné chlazení voda-vzduch. 33 Princip pímého volného chlazení vzduchem je docela jednoduchý: chladit produkní servery a datová úložišt když je venkovní teplota nižší než 25 °C, což je v Grenoblu kolem 85 % roní doby; vzduch se nasává zvenku a používá se pímo pro chlazení server. Vzduch vycházející na zadní stran server je pak vyfukován zpt ven. Využívá se zde kompletní oddlení horkého a studeného toku vzduchu, tedy princip systém se studenou ulikou. Je-li venkovní teplota píliš nízká, v našem pípad mén než 13 °C, pro vylouení posílání ledového vzduchu pes servery pivádí recyklaní klapka trochu horkého vzduchu ze zadní strany IT rozvad a míchá jej s venkovním vzduchem za úelem regulace vstupní teploty na cílovou hodnotu 13 °C. Volné chlazení voda-vzduch: Je-li venkovní teplota vyšší než 25 °C, vzduch pro chlazení server se stále bere zvenku, ale nejdíve je zchlazen na 25 °C jednoduchým výmníkem voda-vzduch. Studená voda je erpána ze zem. Všimnte si, že toto je pímá výmna voda-vzduch bez kompresoru. Opatení pro optimalizaci systému 1. ízení toku vzduchu Prvním cílem pi ízení toku vzduchu bylo odvést maximální množství tepla. Tok vzduchu do systému z vnjšího prostedí se rovná množství odvádného teplejšího vzduchu. Pro daný tok vzduchu závisí množství odvádného tepla na teplotním rozdílu mezi pivádným a odvádným vzduchem; v rovnici je to T (delta T). Z toho vyplývá, že odchozí vzduch by se nikdy neml míchat s chladnjším vzduchem ped odsáním, jelikož toto sníží hodnotu delta T, a sníží výkon rozptýlený systémem. Druhým cílem pi ízení toku vzduchu bylo získání homogenní teploty ve studené ulice. Jak je vysvtleno výše, chtli jsme použít pímé volné chlazení tak dlouho, dokud píchozí vzduch má teplotu nižší než 25 qC. Zjistili jsme, že je velmi dležité se ujistit, že teplota ve studené ulice je homogenní. V našem pvodním systému byly njaké oblasti, kde byla pozorována teplota až o 7 qC vyšší. Pro zajištní správného chlazení jsme museli náležit snížit teplotu pemny a tím snížit rozsah, ve kterém se mohlo používat pímé chlazení vzduchem, jelikož venkovní teploty v Grenoblu jsou nižší než 18 ºC pouze bhem 60 % roní doby. Jak byl ízen tok vzduchu? Píka kolem IT rozvad oddluje studenou uliku od zadní ásti IT skíní. Veškeré IT rozvade bez zaízení jsou osazeny záslepkami. Boky IT rozvad byly zaizolovány pnovkovými pásy. To bylo shledáno dostateným pro odstranní výše popsaných hotspot. Obrázek: Výdech vzduchu 2. Vlhkost Prvním bodem, který se musí vzít v úvahu, je, že moderní hardware je mnohem robustnjší, než byl v pípad jen ped nkolika málo lety. Jsou akceptovány širší rozsahy teplot a vlhkostí. Dále, rychlé technologické pokroky nás vedou k astjší obnov – tíleté – našich zaízení kvli lepšímu výkonu a nižší spoteb energie, a zaízení je zídka kdy starší než 5 let. V dsledku toho jsou zaízení nahrazována díve, než u nich dojde k njaké významné degradaci. Výjimkou jsou jednotky s magnetickými pásy, které potebují regulaci vlhkosti, ale tu my v LPSC žádnou nemáme, jelikož naše záloha se posílá do CCIN2P3 pes sí. Páskové jednotky potebují lepší ízení vlhkosti, než kterou poskytuje volné chlazení. Provozovatel nicmén musí zvážit dva limity vlhkosti. Vysoká úrove vlhkosti mže vést ke kondenzaci, pi píliš nízké vlhkosti je možné pozorovat elektrostatické problémy. 34 Kondenzace se mže vyskytnout, když je venkovní vlhkost vysoká a zárove venkovní teplota je vysoká. Když je venkovní teplota taková, že musíme chladit vzduch pedtím, než jej pošleme pes servery, je možné, že dosáhneme bodu nasycení vzduchu. Ale to mžeme pozorovat jen v míst tepelného výmníku voda-vzduch, který je nejstudenjším místem. Všude jinde teplota roste a tím vlhkost klesá. Problém byl jednoduše vyešen pidáním odpaovae kondenzátu na úrovni tepelného výmníku voda-vzduch. Doposud nebyly pozorovány žádné projevy chybné funkce v dsledku statické elektiny. Opatením by bylo umístit IT rozvade a skín na uzemnnou antistatickou podlahu a zajistit, aby byly individuáln uzemnny. Ekonomická úinnost aplikovaných opatení 1. Nulové zastavení produkce z dvodu chlazení Tepelný výmník voda-vzduch Od bezna 2008 nezažilo LPSC žádné perušení provozu související se systémem chlazení. Na zaátku projektu z dvodu opoždné dostupnosti tepelného výmníku voda-vzduch a ventilaního systému pracovalo LPSC bhem 2 chladných msíc (bezen a duben), bez nich! To dokázalo, že servery byly s to natáhnout vzduch z venkovního prostedí pouze použitím svých vlastních ventilátor! V lét 2010 bhem stavebních prací došlo v lokalit datového centra k perušení pívodního vodního potrubí bagrem. Venkovní teplota byla 25 °C a díky pímému chlazení vzduchem byla produkce schopna pokraovat i bhem opravy potrubí. ႛ Problém s chlazením nemá žádný vliv na produkci, je-li teplota nižší než 25 °C: 85 % doby. ႛ Takový problém bude mít malý vliv ve 13 % doby, kdy je teplota mezi 25 °C a 33 °C, protože poíta mže pracovat bez poškození až do 33 °C. 2. Desetinové náklady na chlazení Volné chlazení umožuje oproti tradiním prostedkm uspoit více než 90 % energie nezbytné pro chlazení sálu. ႛ Elektrická spoteba server a datových úložiš je v souasné dob 60 kW ႛ Výkon ventilátoru je 2 kW pi toku vzduchu 16.000 m3/h ႛ Maximální výkon ventilátoru je 3 kW pi maximálním toku vzduchu 23.000 m3/h ႛ Když je tepelný výmník voda-vzduh používán, mže používat maximální prtok vody 20 m3/h. Voda je do LPSC erpána pro použití v nkolika experimentech, nejen pro chlazení výpoetních kapacit. Odhadujeme, že erpadlo pi používání výmníku voda-vzduch pijde na mén než 3 kW. Elektrická spoteba chlazení o chladicím výkonu 60 kW je ႛ 2 kW bhem 85 % doby v režimu pímého volného chlazení vzduchem ႛ 5 kW bhem 15 % doby v režimu volného chlazení voda-vzduch Prmrná cena chlazení pro 60 kW ႛ 2 x 85 % + 5*15 % = 2,45 kW Cena chlazení je pouze 4 % z celkové elektrické spoteby! 35 Klíové aspekty a faktory úspchu Bhem období provozu našeho systému volného chlazení byla laborato LPSC schopna zlepšit svj výkon. Mimoádn dležité jsou dva body: ႛ Tok vzduchu do systému se musí zcela ídit. ႛ Musí se rozumt problémm vznikajícím z úrovn vlhkosti. 36 3.4.3. Esselunga, Itálie Rekonstrukce datového centra zajišujícího trvalou pítomnost na trhu Úvod Esselunga S.p.A. je italský maloobchodní etzec. Byl prvním etzcem supermarket v Itálii a byl prvním, který pedstavil nakupování on-line a organické výrobky z vlastní produkce. S 20.000 zamstnanci a 140 obchody mla spolenost v roce 2010 obrat 6,3 miliardy Euro. Esselunga ovládá asi 10 % italského trhu distribuce potravin. Je zaazována na 4. místo mezi nejziskovjšími spolenostmi evropského maloobchodního sektoru (v pomru ke své velikosti) a je 13. nejvtší italskou spoleností. Podlahová plocha: 190 m2 Poet server/IT-rozvad: 42 IT rozvad, 110 server Jejich elektrický píkon: 79,1 kW (meno na výstupu UPS) Období realizace: 2009 - 2011 Kategorie Tier: II Kontakt: Esselunga, IT manager, p. Enzo Greco Spoteba energie a využití IT Systém Starý Nový Spoteba energie není k dispozici 1’000’000 kWh/rok 2700 kWh/den Standardizovaná metrika PUE = >2,3 PUE = 1,85 Využití IT Prmrné: 30 % Prmrné: 30 % Špikové: 50 % Špikové: 50 % Systém Starý Nový Teplota prostedí ve °C 19 23 Relativní vlhkost v % 50 50 Cílové nastavení sálové chladicí jednotky ve °C (CRAH set point) 15 20 Parametry prostedí Popis IT a chladicího systému ႛ Prmrné stáí IT zaízení podle typu: 2,5 roku (obmna IT po 5 letech) ႛ Prmrné stáí zaízení datového centra podle typu (zaízení distribuce napájení a chlazení): 9 let ႛ Chlazení a vzduchotechnika: CRAH jednotky zapojené s DX chladicím systémem (chladicí výkon 133,2 kW) ႛ Procenta modelového datového centra: 50 % databáze, 30 % aplikaní a web služby, 20 % základní služby IT infrastruktury ႛ Celková projektovaná zátž datového centra: 160 kVA (+ 160, redundantní) ႛ Procentní podíl server používající virtualizaci: 250 instalovaných virtuálních server 37 V sále datového centra je možné pozorovat všechny pro datové centrum typické IT komponenty: servery, datová úložišt, sí, napájení a zaízení pro nepetržitý provoz. V datovém centru jsou instalovány i záložní zdroje (UPS) a to z dvodu prostorových omezení v pedmtné budov. Typy zde provozovaných služeb pedstavují hlavn databáze, datové sklady, aplikaní servery a základní služby infrastruktury (e-mail, souborové servery atd.). Úrove požadované redundance je Tier 2. Opatení pro optimalizaci systému Datové centrum pro trvalou pítomnost na trhu obdrželo celkové vyhodnocení provedené spoleností HP na zaátku roku 2010. Uprosted roku 2011 bylo provedeno nkolik zlepšení: pedevším správné peuspoádání místnosti do horkých/studených uliek, pesunutí perforovaných podlahových panel v chladných zónách a osazení zaslepovacích panel s peorientací IT rozvad a zaízení podle toku vzduchu: To je operace, která poskytuje lepší parametry prostedí pro IT zátže. Souasn bylo optimalizováno rozložení zátže v IT rozvadích: Zaízení s velkým píkonem byly pesunuty blíže k nejchladnjšímu toku vzduchu (typicky do spodní ásti IT rozvad). Celý kabelážní systém byl zdokonalen: veškeré výezy a možné zkratky mezi horkou a studenou ulikou byly utsnny a tok vzduchu pod podlahou má mén pekážek. Druhým krokem byla optimalizace sestavy UPS: Stávající ti záložní zdroje pracovaly s nízkými úrovnmi zátže. Jeden z nich se stal standby jednotkou a dva v provozu nyní pracují s optimální úrovní (alespo 50 % zátže). V poslední fázi bylo korigováno umístní senzor pro ízení sálových chladicích jednotek (dále od upevnní svítidel a dalších rušivých zátží). Optimalizaní proces se postupn doplnil jemným doladním teplot vzduchu. Chlazená zátž je v dsledku renovace nižší: Zatímco díve pracovaly tyi sálové chladicí jednotky naplno, nyní aktivn pracují pouze ti a mají snížený výkon – tvrtá jednotka je nyní k dispozici jako redundantní. V posledních msících byly instalovány konstrukní prvky pro uzavení uliek: Pracovní monitoring bude poskytovat doplující data pro lepší vyhodnocení celého procesu optimalizace. Ekonomická úinnost aplikovaných opatení Veškeré zásahy byly provedeny bez významných investic do specifického hardwaru nebo zaízení, s výjimkou panel pro uzavení uliek, které jediné instaloval externí dodavatel. IT personál spolenosti Esselunga si vzal na starost všechna zlepšení bhem výkonu normální údržby, plánované na 3 msíce. Z tchto dvod není možné pesn vyhodnotit dobu návratnosti vázanou ke zlepšovacím opatením. 38 Souasn postupný vývoj úsporných opatení sloužil pro zainteresovaný personál (divize IT a technických služeb) jako školení o energetické úinnosti: pro spolenost Esselunga jsou dosažené dovednosti a schopnosti obtížn mitelné a kvantifikovatelné. Klíové aspekty a faktory úspchu Primární faktor úspchu je široký zájem o úinnost a dobrý provoz a dále také IT a technický personál, který je podporován z úrovn ízení spolenosti. Proces zlepšování úinnosti je vnímán jako neustálá tvrí innost. 39 4. Kontakt Mezinárodní koordinace projektu Dr. Bernd Schäppi Rakouská energetická agentura Telefon +43 (0) 1 586 15 24-0 E-mail: [email protected] 40