PrimeEnergyIT - Best Practice Cases

Transkript

PrimeEnergyIT - Best Practice Cases
Energeticky úinný IT hardware
a efektivní infrastruktura
Pípady nejlepší praxe
Podpoil:
Impresum
Odpovdnost: Projektové konsorcium PrimeEnergyIT, ervenec 2011
Koordinace projektu: Dr. Bernd Schäppi, Rakouská energetická agentura, Víde
Redakní vedení: Jenny Therese Kupfer a Vanessa Hübner, Berlínská energetická agentura
Tato brožura byla vytvoena jako ást mezinárodního projektu PrimeEnergyIT (www.efficient-datacentres.eu),
který je veden v rámci programu EU „Evropská inteligentní energie“ (Intelligent Power Europe).
Petisk je povolen pouze po ástech a pouze s podrobným odkazem.
Vytištno na papíru, k jehož blení nebyl použit chlór.
Fotografie a grafiku poskytli: str. 9
Univerzita Coimbra
str. 11, 12
Altron a.s.
str. 13-16,30-31 Emerson Network Power
str. 18-19, 37-38 Esselunga S.p.A.
str. 20
Postbank
str. 23-24
regio iT aachen GmbH
str. 26-27
Jerlaure
str. 29
Eroski
str. 33-35
IN2P3-LPSC/Grenoble
Citovat jako
Schäppi, Dr. Bernd: Energeticky úinný IT hardware a efektivní infrastruktura. Pípady nejlepší praxe. Víde:
Rakouská energetická agentura. Publikováno jako ást evropského projektu PrimeEnergyIT
(IEE/09/816/SI2.558288).
Vylouení odpovdnosti
Výhradní odpovdnost za obsah této publikace mají autoi. Obsah publikace nemusí nutn reflektovat názor
Evropské unie. Ani EACI (Výkonná agentura pro konkurenceschopnost a inovace) ani Evropská komise není
zodpovdná za jakékoli možné použití informací obsažených v této publikaci.
2
IT a infrastruktura v datových centrech a serverovnách
na jejich cest k energetické úinnosti
Dodávka energie a její využití je jednou nejvtších výzev naší doby. Veškerá
prmyslová odvtví, instituce a veejné úady elí omezeným zdrojm a jsou
žádány, aby pisply k trvalé udržitelnosti a energetické úinnosti. Zárove se
informaní technologie stávají v našich životech neodmyslitelnými. Množství
vzájemn vymnných dat se v souasnosti zdvojnásobí každé dva roky.*
Proto oba požadavky – energetická úinnost a vysoce komplexní IT struktury –
musí jít ruku v ruce. Infrastruktura a náklady na energii se v datových centrech
staly ústední složkou facility a IT managementu. Pro zlepšení energetické
úinnosti byla vyvinuta ada nových technologií a technologických pístup.
Tato brožura poskytuje píklady nejlepší praxe pi zlepšování energetické
úinnosti IT hardwaru a infrastruktury. Pípady rzných institucí ze soukromého
a veejného sektoru ukazují efektivní implementace uritých energetickooptimalizaních strategií pro IT a datová centra.
* EMC: Studie digitálního svta: Získávání hodnoty z chaosu. erven 2011
www.emc.com/collateral/demos/microsites/emc-digital-universe-2011/index.htm
3
4
Obsah
1.
2.
3.
Evropský projekt ‘PrimeEnergyIT’ ................................................................................................. 6
Úinná datová centra – Co zpsobuje ten rozdíl? ........................................................................... 7
Píklady nejlepší praxe ............................................................................................................... 7
3.1.
Systémy volného chlazení (Free Cooling) ...................................................................................... 8
3.1.1. Laborato pokroilého computingu (LCA), Univerzita Coimbra, Portugalsko .......................... 8
3.1.2. ALTRON, eská republika ............................................................................................. 11
3.2.
Kombinace volného chlazení a dalšího opatení pro lepší úinnost ................................................ 13
3.2.1. CSC LOEWE Frankfurt, Nmecko ......................................................................................
Pasivní chlazení a obnovitelná energie v datovém centru .................................................. 13
3.2.2. Technická univerzita Drážany (TU Dresden), Nmecko .....................................................
Vodní a rozvadové chlazení ve vysoce výkonných datových centrech ............................. 15
3.2.3. Esselunga, Itálie .............................................................................................................
Nové datové centrum ................................................................................................... 18
3.3.
Energeticky úinná úložišt dat a optimalizace sít ...................................................................... 20
3.3.1. Postbank (Poštovní banka), Nmecko ...............................................................................
Použití nové pátení trasy / Virtualizace .......................................................................... 20
3.3.2. regio iT Aachen (Cáchy), Nmecko ...................................................................................
Virtualizace server v kombinaci s dalšími opateními pro systém chlazení ........................ 22
3.3.3. Jerlaure, Francie .............................................................................................................
Kombinace energeticky úinného úložišt dat, optimalizace sít a volného chlazení ............ 25
3.3.4. GEMINIS, Španlsko .......................................................................................................
Optimalizace datových úložiš a sít v kombinaci s dalšími opateními v oblasti chlazení ..... 28
3.4.
Optimalizace chlazení a toku vzduchu s nízkými investicemi ......................................................... 30
3.4.1. Finanní korporace ve Frankfurtu, Nmecko ......................................................................
Zlepšení toku vzduchu a teplotní hladiny v datovém centru .............................................. 30
3.4.2. Laborato subatomární fyziky a kosmologie (LPSC), Francie ................................................
Zlepšení toku vzduchu a vlhkosti ................................................................................... 33
3.4.3. Esselunga, Itálie .............................................................................................................
Rekonstrukce datového centra zajišujícího trvalou pítomnost na trhu ............................. 37
4.
Kontakt
..................................................................... Chyba! Záložka není definována.
5
1. Evropský projekt ‘PrimeEnergyIT’
Vytžení vysokého potenciálu úspor u IT hardwaru a infrastruktury vyžaduje sehranou akci na
mezinárodní úrovni. Opatení pro podporu vývoje trhu smrem k centrálním, energeticky úinným IT
zaízením zapoaly teprve nedávno, v roce 2007. Ve srovnání s mnoha dalšími oblastmi jsou tedy
technologické aktivity pro podporu trvale udržitelných ešení relativn nové a jejich tržní vliv musí dále
narstat.
PrimeEnergyIT podporuje vývoj trhu a poptávku po energeticky úinném centrálním IT hardwaru
a infrastruktue poskytující nástroje a služby pro IT a facility manažery, konzultanty a další píslušné
specialisty. Tyto nástroje a služby zahrnují:
ႛ Kritéria a metriky energetické úinnosti založené na hardwaru a výkonu
ႛ Pravidla pro energeticky úinná zaízení a nejlepší praxe
ႛ Vzdlávání a školení IT a facility manažer a expert
ႛ Pokyny a kritéria pro nákup a ízení
Iniciativa PrimeEnergyIT je ovládána mezinárodním konsorciem národních agentur a výzkumných
institucí ve spolupráci s velkým potem pidružených partner z prmyslu. Projekt podpoil program
EU „Evropská inteligentní energie“ („Intelligent Energy Europe“).
Partnei projektu
¤
6
2. Úinná datová centra – Co zpsobuje ten rozdíl?
Spoteba elektrické energie je v datových centrech a serverovnách rostoucím cenovým faktorem.
Spoteba energie hardwarem a infrastrukturou bhem posledních let neustále narstala a v souasné
dob dosahuje v EU asi 50TWh za rok. Pokud by vše pokraovalo dosavadním zpsobem, oekává se,
že brzy dojde ke zdvojnásobení energetické spoteby. Navzdory narstající úinnosti v dsledku i
zásluhou nových technologií potebují datová centra více energie než kdykoli díve. V mnoha datových
centrech jsou napájení a chlazení již omezujícím faktorem. Takže výzvy, které je poteba zvládnout,
jsou obrovské.
Nicmén energeticky úsporné technologie jsou již po ruce. V závislosti na typech projekt mohou být
zmírnny investiní náklady a také doba návratnosti mže být krátká, zvlášt jsou-li ve standardních
cyklech obnovy zahrnuta opatení pro zaízení a infrastrukturu.
3. Píklady nejlepší praxe
Píklady nejlepší praxe, které jsou prezentovány v této brožue, byly zkompletovány ve spolupráci
s externími partnery v EU.
Pípady pokrývají rzné velikosti datových center a serveroven od osmi do více než 500 server,
vyžadující 50 až 1500 kW energie a 20 až 1800 m2 pozemku.
Brožura se zamuje na následující technologie:
ႛ Chlazení a optimalizace toku vzduchu
ႛ Volné chlazení (free cooling)
ႛ Kombinace volného chlazení a dalších energeticky úsporných opatení
ႛ Energeticky úinná datová úložišt a optimalizace sít
Doposud se datová centra zamovala hlavn na opatení na úrovni infrastruktury a chlazení. Nicmén
poet úinných optimalizaních postup pro servery, datová úložišt a sí v souasnosti roste.
7
3.1. Systémy volného chlazení (Free Cooling)
3.1.1. Laborato pokroilého computingu, Univerzita Coimbra, Portugalsko
Úvod
Univerzitní LCA (Laboratório de Computação
Avançada) hostí jeden z nejvýkonnjších
superpoíta v Portugalsku, jehož jméno je
“Milipeia”, a poskytuje strojový as (CPU)
pedložením výzkumných projekt vdcm ze
14
univerzit
a
výzkumných
ústav
v Portugalsku. Výzkumníci z FCTUC se aktivn
angažovali ve výzkumu vyžadujícím vysoce
výkonné výpoty (HPC): fyzika kondenzovaných
látek, fyzika vysokých energií, mížková
kvantová chromodynamika, kvantová chemie
a skládání a rozkládání protein.
Podlahová plocha:
66 m2
Poet server/IT-rozvad:
132
Jejich elektrický píkon:
66,3 kW
Období realizace:
2008 a 2010
Kategorie Tier:
6E
Další informace:
Carlos Patrão / ISR-UC
Kontakt:
[email protected]
Výzkumníci fyziky kondenzovaných látek jsou spoluvývojái
široce používaného TDDFT kódu
v softwaru OCTOPUS, který je nyní ástí softwarového balíku PRACE (benchmark suite).
Spoteba energie a využití IT
Systém
Starý
Nový
Zlepšení
Spoteba energie
760 MWh/rok
670 MWh/rok
Volné chlazení
90 MWh/rok
Energetická úinnost na úrovni infrastruktury
založená na standardizované metrice
PUE = 1,44
PUE = 1,64
Využití IT
Špika: 82,1 %
Prmr: 72,8 %
Informace
nejsou zatím
dostupné
0,20
Parametry prostedí
Systém
Starý
Nový
Teplota prostedí ve °C
22 ºC
22 ºC
Teplota vzduchu na vstupu IT zaízení ve °C
27 ºC
27 ºC
Relativní vlhkost v %
50 % - 70 %
80 %
8
IT a infrastruktura starého a nového systému
Byl instalován systém volného chlazení s výkonem pibližn
170 000 BTU/hodinu (49,82kW).
Pokud je venkovní teplota pod teplotou vnitního prostedí
(vtšinou v noci nebo bhem zimního období), studený vzduch
z venkovního prostedí se nasává do datového centra za úelem
chlazení, piemž obvyklý mechanický chladicí systém je vypnutý
(nebo ve stavu standby).
Protože jedinými komponenty, které spotebovávají energii, jsou
ventilátory, zvlhovae nebo vysoušee a ízení, pedstavují
spoie na vzduchové stran velkou píležitost k úspoe energie.
Kivky monitoringu zátže ped instalací volného chlazení:
Graf zátže systému AVAC od 15/11/2008 do 22/11/2008
Graf zátže datového centra (bez AVAC) mezi 14/11/2008 a 21/11/2008
9
Koncepce mení
Koncepce mení se zakládá na monitoringu spoteby energie (každých 15 minut bhem jednoho
týdne). Micími body spoteby energie byly panelový rozvad datového centra a panelový rozvad
HVAC (tj. klimatizace a ventilace).
Ekonomická úinnost aplikovaných opatení
Zaízení bylo 100% financováno portugalským distributorem energie v rámci portugalského programu
DSM (Demand-Side Management, tj. management poptávky).
Náklady na instalaci systému byly pibližn 6040 € (50 % financováno distributorem energie).
Pi zohlednní finanní pobídky byla doba návratnosti odhadnuta na cca 1 rok.
Klíové aspekty a faktory úspchu
Volné chlazení (free cooling) samo o sob není zcela zdarma (free), protože k tomu, aby návrh
pracoval, jsou poteba njaké komponenty spotebovávající energii, napíklad ventilátory a erpadla.
Výhodou však je, že energie spotebovaná tmito komponenty mže být mnohem menší než
energie spotebovaná jinými metodami mechanického chlazení.
10
3.1.2. ALTRON, eská republika
Úvod
ALTRON je evropská konzultaní firma pro
datová centra, serverovny a další kritické
provozy a dodavatel ešení na klí se
zkušenostmi pesahujícími 200 instalací po
celém svt. ALTRON nabízí kompletní ešení
pro celý životní cyklus datových center.
Podlahová plocha:
1800 m2
Poet server/IT-rozvad:
300
Jejich elektrický píkon:
1150 kW
Období realizace:
2010-2011
Kategorie Tier:
III
Další informace:
Altron, a.s.
Kontakt:
+420 261 309 111
Spoteba energie a využití IT
Systém
Starý
Nový
Zlepšení
Spoteba energie ICT a NON-ICT
20,25 GWh/rok
15,21 GWh/rok
5,04 GWh/rok
Spoteba energie ICT
10,07 GWh/rok
10,07 GWh/rok
-
Energetické úinnost na úrovni
infrastruktury založená na
standardizované metrice
Pedchozí PUE
ped zmnami
technologie
chlazení 2,01
Zlepšení PUE
na 1,51
0,5
IT a infrastruktura starého a nového systému
Klient oslovil ALTRON za úelem prodiskutování renovace,
upgradu a vylepšení jednoho ze svých existujících
datových center. Datové centrum bylo ve fázi i období,
kdy se vnitní klimatizaní jednotky pibližovaly konci své
životnosti, a také pracovalo s PUE kolem 2,01, tedy
nadnormáln vyšším oproti souasným standardm.
Dalšími problémy stávajícího datového centra byly
relativn nižší dostupnost a nedostatené, respektive
zastaralé napájecí systémy. Klient chtl dosáhnout
dlouhodobých úspor, protože si uvdomil, že náklady na
energii budou pokraovat v rstu stále stejným tempem,
a také chtl zvýšit úinnost a dostupnost.
Po diskuzi se spoleností ALTRON by zpracován projekt pro splnní požadavk klienta. Projekt byl
navržen tak, aby udržel náklady na obnovu a upgrade co možná nejnižší (tím, že se choval
ekonomicky pi zdokonalování a zmnách toho, co bylo nezbytné). Klíem projektu byl nový chladicí
systém AHECS (ALTRON High Efficiency Cooling System), který nahradil neefektivní systém s chladicí
vodou kombinovaným systémem složeným z DX systému (pímý výpar) a volného chlazení,
umožujícím používat venkovní vzduch pro udržování datových sál v chladu bez poteby dodávky
obrovského množství energie. Systém se také umí automaticky pizpsobovat pepínáním mezi
chladicími systémy tak, jak to vyžadují parametry venkovního a vnitního prostedí (tento systém se
zakládá na algoritmu navrženém spoleností ALTRON).
11
Hlavními výhodami takových opatení musí být:
ႛ zvýšení úrovn dostupnosti systému na TIER 3
ႛ zvýšení úrovn servisovatelnosti bhem provozu
ႛ zvýšení úinnosti chladicího systému a snížení spoteby energie chladicím systémem.
Opatení pro optimalizaci systému
Pvodní sálové klimatizaní jednotky byly nahrazeny novými jednotkami s kompresory, které rovnž
podporují volné chlazení (DualFluid - systém s dvojím chladivem). Nov instalované dvou-chladivové
klimatizaní jednotky používají nové vzdálené kondenzátory na steše budovy pro svj DX systém
a dále také stávající chillery na steše, jejich nový úel je
zabezpeit free-coolingovou ást systému, piemž také
poskytují náhradní zdroj chladu, je-li to poteba (chladná
voda). Sálové chladicí jednotky obsahují jak DX výparník
tak i tepelný výmník kapalina/vzduch (kde kapalinou je
voda nebo glykol), umístné vedle sebe a umožující
chladicí jednotce používat kteroukoli z tchto dvou
metod chlazení v závislosti na parametrech prostedí
a situaci. Tento chladicí systém, který je po vtšinu roku
provozován hlavn jako systém s nepímým volným
chlazením (díky klimatickému teplotnímu profilu eské
republiky), umožnil dosáhnout velké úspory energie. Další systémy v datovém centru byly také
zlepšeny pro umístní tohoto nového chladicího systému a maximální zvýšení úinnosti. To zahrnuje
nízkonapové transformátory, systémy neperušitelného napájení (UPS) a topologie chlazení
a napájení.
Ekonomická úinnost aplikovaných opatení
Nová instalace pinesla roní energetickou úsporu 5,04 GWh. Celkové úspory provozních náklad
dosahují 15,12 milión K ron.
Klíové aspekty a faktory úspchu
Altron a.s. v tomto pípad rozpoznal následující klíové aspekty a faktory úspchu:
ႛ Podrobný technologický audit datového centra – umožnil zjistit aktuální situaci a urit nezbytná
zlepšení.
ႛ AHECS – vlastním vývojem navržený vysoce úinný chladicí systém, který pi náležitých
klimatických podmínkách umožuje dosahovat velkých úspor.
ႛ Zmna úelu stávajících jednotek a zaízení pro další úlohy – minimalizace investiních náklad
(CAPEX) pi souasném snížení provozních náklad (OPEX)
ႛ Zvýšení úrovn dostupnosti (TIER) hostingového centra.
12
3.2. Kombinace volného chlazení a dalšího opatení pro lepší úinnost
3.2.1. CSC LOEWE Frankfurt, Nmecko
Pasivní chlazení a obnovitelná energie v datovém centru
Úvod
Superpoítae jsou dležité pro výzkum
a prmysl. Z dvodu jejich vysokého výkonu
jsou také významnými spotebii energie
a celosvtovými
spolutvrci
emisí
CO2.
Superpoíta LOEWE CSC tyto záležitosti eší
masivním nasazováním pasivních chladicích
prvk (tím zlepšuje efektivitu využívání energie,
PUE) a používáním energie vyrábné místní
bioplynovou stanicí a místní elektrárnou spalující
odpad.
Podlahová plocha:
Poet server/IT-rozvad:
Jejich elektrický píkon:
Období realizace:
Další informace:
Kontakt:
120 m2
34
416,78 kW
2010
Dr. Peter Koch
Emerson Network Power
Knürr GmbH
[email protected]
Spoteba energie a využití IT
Systém
Nový
Spoteba energie
3,65 GWh/rok, 10 MWh/den
Energetická úinnost na úrovni infrastruktury založená na
standardizované metrice
PUE = 1,076
Energetická úinnost na úrovni IT založená na specifické metrice
740,78 MFLOP/W
Využití IT
Špikové: 91 %
Prmrné: 71 %
IT a infrastruktura starého a nového systému
LOEWE-CSC je hybridní cluster sestavený z 826 výpoetních uzl v 34 IT rozvadích. Z tohoto potu
je 786 výpoetních uzl vybaveno dvma 12-ti jádrovými procesory AMD Magny-Cours a každý uzel
jedním víceúelovým grafickým procesorem AMD Radeon HD 5870 GPGU (dále v textu GPGPU uzly,
General-Purpose Graphics Processing Unit Nodes). Pro dosažení vysoké hustoty integrace jsou dva
uzly montovány do jednoho chassis o výšce 2U, které obsahuje redundantní napájecí zdroje. Každý
uzel je vybaven hlavní pamtí 32 GB / procesor. Celkov se systém skládá z 20768 procesorových
jader a 786 GPGPU uzl pracujících s hlavní pamtí 55,4 TB. LOEWE CSC se používá pro výzkumné
úely – neurologii, fyziku vysokých výkon atd.
Obrázek 1 ukazuje místní schéma vodního systému; chladicí vodu dodávají dv chladicí vže.
Chladicí okruh – CSC LOEWE
13
Chladicí systém obsahuje pouze tyi elektricky napájené komponenty: primární erpadlo (6kW),
sekundární erpadlo (28kW) a dva ventilátory umístné ve vžích (4,5 kW každý). Obrázek 2 ukazuje
adu IT rozvad v datovém centru.
Zadní dvee serverových rozvad obsahují
65 mm hluboký tepelný výmník (zobrazen na
obrázku 2), který umí uchladit až 35 kW tepla.
Tepelné výmníky jsou navrženy takovým
zpsobem, aby mly velmi nízkou tlakovou
ztrátu pi prchodu vzduchu (~20Pa) a aby
ventilátory server byly samy o sob schopné
vytvoit dostatený petlak pro protlaení
dostateného objemu vzduchu pes n. Chladný
vzduch je pak pímo vpouštn do sálu. Servery
jsou umístny „zpedu dozadu“ takže server
dostává chladný vzduch ze zadní strany
pedchozí ady server. Všechny servery jsou
dimenzovány pro provoz pi teplot do 35 °C.
Teplota v místnosti se mže pi nejhorších podmínkách
dostat až na 33°C. Prmrná tepelná zátž v jednom IT
rozvadi je 12,2 kW. Celková hustota zátže je
3,47 kW/m2.
ada IT rozvad s chladicími dvemi
Ekonomická úinnost aplikovaných opatení
Na rozdíl od tradiních datových center s podobnými rozmry (s PUE 2,00) CSC LOEWE ron uspoí
3,37 GWh, což znamená roní úspory kolem 462 000 €.
Klíové aspekty a faktory úspchu
Velké využívání pasivních chladicích prvk a snížení potu elektrických komponent v chladicím
okruhu na minimum významn snižuje spotebu energie (spoteba energie na chlazení odpovídá
7,4% spoteby IT zaízení). Snížení potu komponent v chladicím systému dále vede ke zlepšené
spolehlivosti a nižším nákladm na údržbu.
Ventilátory obsažené v chladicích vžích mohou být piškrcovány v celém rozsahu teplot shora až do
15°C, kdy již nejsou poteba vbec - pro teploty nižší než 15 °C se používá volné chlazení (“Free
cooling”). Chladicí vže také používají princip chlazení výparem. Každý IT rozvad obsahuje
autonomní mikroadi založený na Linuxu, který sleduje teplotu vzduchu a vody a pizpsobuje
výkon chlazení tak, aby chladicí výkon pesn odpovídal tepelné zátži. Primární okruh mže být
vybaven tetí chladicí vží pro zvýšení kapacity chladicího výkonu a zlepšení PUE na 1,049.
Sekundární okruh je již navržen pro odebrání 900 kW tepelné zátže.
14
3.2.2. Technická univerzita Drážany (TU Dresden), Nmecko
Vodní a rozvadové chlazení ve vysoce výkonných datových centrech
Úvod
IT prostedí pro moderní univerzitní vzdlávání
a výzkum jako pro Technickou univerzitu
Drážany vyžaduje vysoký výpoetní výkon
a hodn prostoru pro ukládání dat. Servery
a disková pole vykazují vysoké energetické
nároky jak IT provozu tak i chlazení, a proto
je efektivita
využívání
energie
v tchto
systémech rozhodujícím hlediskem.
Chladicí systém na TU Drážany je kombinací
uzavených a otevených rozvadových
chladicích systém (sálových klimatizaních
jednotek).
Podlahová plocha:
450 m2
Poet server/IT-rozvad:
62
Jejich elektrický píkon:
900 kW
Období realizace:
2010
Další informace:
Dr. Peter Koch
Emerson Network Power
Knürr GmbH
[email protected]
Kontakt:
Struktura vysoce výkonného computingu v Technické univerzit Drážany
Popis IT a chladicího systému
Výpoetní systém se skládá ze dvou hlavních ástí (Obr. 2): PC farmy Deimos (2576 CPU jader
v dávkovém provozu s LSF (Load Sharing Facility, vybavení pro sdílení zátže), AMD Opteron x85
(dvoujádrové procesory) a SGI Altix (2048 jader Intel Itanium II Montecito 1,6 GHz). Altix, který se
umístil na 49. pozici v top500 v listopadu 2006, se používá zejména pro vysoce paralelní pamov
intenzivní aplikace. Deimos PC farma, zaujímající 79. místo v ervnu 2007, se používá pro kapacitní
výpoty. Sál SGI Altix je chlazen sálovými klimatizaními jednotkami a Deimos farma používá
uzavenou architekturu rozvadového chlazení (Knürr CoolTherm). Tepelné výmníky jsou umístny
ve spodní ásti skín IT rozvade (Obr. 3).
15
Dv hlavní serverovny v Technické univerzit Drážany
Zdroj energie pro výrobu chladné vody je poskytován mstskou
teplárnou. Toto ešení využívá odpadní teplo bhem letních msíc,
kdy se nevyužívá horká voda pro vytápní v domácnostech. Horká
voda (100 °C / 89 °C) je vedena do dvou absorpních chiller York
(505 kW každý), umístných v suterénu budovy. Absorpní chillery
mají koeficient výkonu (COP) rovný 0,7. Chillery jsou napojeny na
chladicí vže nahoe na budov.
Chladicí vže používají princip chlazení výparem a volného chlazení
(free cooling). Volné chlazení, respektive smíšené chlazení se používá
pro venkovní teploty pod 15 °C. istý free cooling je možný pibližn
30 dní v roce. Teploty poskytované pro uzavenou architekturu
rozvadového chlazení jsou 14 °C / 20 °C (chladicí voda) a 21 °C pro
otevenou architekturu (chladicí vzduch). Obr. 3 ukazuje rozvad
CoolTherm pro uzavené rozvadové chlazení.
Výkon a energetická úinnost systému
Tabulka níže ukazuje spotebu energie a úinnost koncepce chlazení.
IT rozvad CoolTherm
Prmrná úrove využití IT je kolem 55 % se špikami až 85 %.
Roní spoteba energie je kolem 7,57 GWh. Koncepce umožuje
dosáhnout PUE kolem 1,5. Pvodní PUE bylo pibližn 2,0. Výpoetní výkon vztažený k elektrickému
píkonu IT zaízení je kolem 31 megaflop na Watt.
Spoteba energie a energetická úinnost dané koncepce
Spoteba energie
7,57 GWh/rok, 20,76 MWh/den
Energetická úinnost na úrovni infrastruktury
založená na standardizované metrice
PUE = 1,505
Energetická úinnost na úrovni IT založená na
specifické metrice
30,86 MFLOP/W
Využití IT (% procenta špikového/prmrného
využití)
85 % / 55 %
16
Ekonomická úinnost aplikovaných opatení
Na rozdíl od tradiních datových center s podobnými rozmry, která nepoužívají odpadní teplo, uspoí
datové centrum v Technické univerzit Drážany pibližn 55 000 € ron (pi cen elektrické energie
0,137 € za kWh, cena tepla 0,06 € za kWh).
Klíové aspekty a faktory úspchu
Klíovým aspektem zlepšeného konceptu je využití vodního, do rozvade zabudovaného chlazení
s uzavenou architekturou obhu vzduchu (Knürr CoolTherm).
Druhou klíovou vlastností, která pispívá ke zlepšenému PUE je používání nepímého volného
chlazení a využívání „odpadního“ tepla z místní teplárny. Tento pístup výrazn zlepšil celkové PUE
pedmtného datového centra. Pi tradiní koncepci se sálovými klimatizaními jednotkami
(používanými pro chlazení SGI Altix) bylo PUE pibližn 2,0. Z aktuální celkové úinnosti (pi
zohlednní kombinace uzavené a otevené architektury) vykazující PUE = 1,505 lze odhadovat, že
pibližná úinnost uzavené architektury chlazení má PUE = 1,28.
17
3.2.3. Esselunga, Itálie
Nové datové centrum
Podlahová plocha:
1240 m2
Poet server/IT-rozvad:
43 rack, 110 server
Jejich elektrický píkon:
80 kW
Období realizace:
2011
Kategorie Tier:
II
Kontakt:
Esselunga, IT manager,
p. Enzo Greco
Úvod
Esselunga S.p.A. je italský maloobchodní
etzec. Byl prvním etzcem supermarket
v Itálii a byl prvním, který pedstavil nakupování
on-line a organické výrobky z vlastní produkce.
S 20.000 zamstnanci a 140 obchody mla
spolenost v roce 2010 obrat 6,3 miliardy Euro.
Esselunga ovládá asi 10 % italského trhu
distribuce potravin. Je zaazována na 4. místo
mezi nejziskovjšími spolenostmi evropského
maloobchodního sektoru (v pomru ke své
velikosti) a je 13. nejvtší italskou spoleností.
Spoteba energie a využití IT
Systém
Starý
Nový
Spoteba energie
1 000 000 kWh/rok
není k dispozici
2700 kWh/den
Standardizovaná metrika
PUE = 1,85
PUE = 1,30 pi
zátži 100%
Využití IT
Prmrné: 30 %
Prmrné: 30 %
Špikové: 50 %
Špikové: 50 %
Parametry prostedí
Systém
Starý
Nový
Teplota prostedí ve °C
23
25
Relativní vlhkost v %
50
50
Cílové nastavení jednotky sálové chladicí jednotky ve °C
(CRAH set point)
20
24
Popis IT a chladicího systému
ႛ Prmrné stáí IT zaízení podle typu: 2,5 roku (výmna IT po 5 letech)
ႛ Prmrné stáí zaízení datového centra podle typu (zaízení distribuce napájení a chlazení): nové
ႛ Chlazení a vzduchotechnika: VZT jednotky zapojené v redundantním vodním chladicím systému
(elektrická zátž: 114+114 kW; zátž volného chlazení 7,6+7,6 kW; chladicí výkon 252+252 kW).
ႛ Celková projektovaná nominální zátž datového centra: 250 + 250 kVA (maximální, s redundantní
a škálovatelnou UPS a napájecím systémem)
ႛ Procenta modelového datového centra: 50 % databáze, 30 % aplikaní a web služby, 20 %
základní služby IT infrastruktury
ႛ Procentní podíl server používající virtualizaci: 250 instalovaných virtuálních server
18
V sále datového centra je možné pozorovat všechny pro datové centrum typické IT komponenty:
servery, datová úložišt, sí, napájení a zaízení pro nepetržitý provoz. Díky nové výstavb je
v novém datovém centru vytvoena vyhrazená a oddlená místnost pro UPS (energocentrum). Typy
zde provozovaných služeb pedstavují hlavn databáze, datové sklady, aplikaní servery a základní
služby infrastruktury (e-mail, souborové servery, …). Úrove požadované redundance je Tier 3.
Opatení pro optimalizaci systému
Stávající datové centrum pro trvalou pítomnost na trhu prošlo celkovou rekonstrukcí v roce 2011.
Nové datové centrum pro trvalou pítomnost na trhu je pro spolenost Esselunga redundantní
a identickou IT službou. Prvním krokem bylo vyhodnocení parametr prostedí a IT zátží: novému
provozu byla vnována zcela nová ást budovy. Analýza pedpovídaných zátží a klimatických
parametr v regionu umožnila pijetí chiller s volným vodním chlazením (6000 hodin za rok).
Nová konstrukce datového centra, v porovnání se starou, umožnila rozdlení rzných IT zátží
(servery, sálové poítae (mainframes), datová úložišt a sí), aby bylo možné úinnji spravovat
parametry prostedí. Chillery jsou umístny na severní stran budovy, aby se optimalizovala úinnost
volného chlazení (spoie): Pi venkovních teplotách pod 17 °C se snižuje požadavek na chladicí výkon
kompresoru, který se pi teplot po 10 °C vypíná. V oblasti IT rozvad, rozdlené do 5 ostrvk,
je proces chlazení zajištn
adovými
chladicími
jednotkami
(in-row)
a optimalizován za pomoci
uzavení
horké
uliky.
Efektivita
chlazení
pi
jakýchkoli parametrech zátže
byla
simulována
CFD
softwarem
(Computational
Fluid Dynamics).
Ekonomická úinnost
aplikovaných opatení
V roce 2010, po prvním
vyhodnocení
stávajících
systém a dalších možností, se
jevilo vytvoení nového datového centra pro úel spolenosti povinností.
Veškeré zásahy provedené ve stávajícím datovém centru zlepšily vnímavost celého IT personálu vi
opatením pro zlepšení úinnosti: úkol znl postavit nové, úinné a spolehlivé datové centrum
s dlouhou životností. Doba návratnosti úinných ešení je v oblasti chlazení o hodn kratší než
oekávaná životnost celého datového centra (kolem 4 let oproti 10).
Klíové aspekty a faktory úspchu
Primárním faktorem úspchu je široký zájem o úinnost a dobrý provoz IT a také technický
personál, který je podporován z úrovn managementu. Po zkušenosti s renovací starého centra pro
trvalou pítomnost na trhu se citlivost na energetickou úinnost zvýšila: V nákupním procesu byl
brán zetel na všechny aspekty týkající se úinnosti. Aby se dosáhl cíl stanovený výkonným
editelem (CEO), byly technické charakteristiky každého komponentu vyhodnoceny pod dohledem
IT manažer a koordinátora procesu.
19
3.3. Energeticky úinná úložišt dat a optimalizace sít
3.3.1. Postbank (Poštovní banka), Nmecko
Použití nové pátení trasy / Virtualizace
Úvod
Poet síových zaízení:
540
Elektrický píkon celé sít:
612.712 kWh/rok
Období realizace:
3 kroky pro 12 msících
Kategorie Tier:
III/IV
Kontakt:
p. Andreas Gilberg
V roce 1996 Postbank zídila svoji pátení sí na
základ ATM technologie (asynchronní režim
penosu, Asynchronous-Transfer-Mode) a od té
doby ji stále rozšiovala. Pátení sí dosáhla
konce svého životního cyklu v roce 2007.
Dodatená rozšiování mohla být realizována
pouze za cenu zvýšení složitosti a náklad, což
nebylo vhodné ani z ekonomického ani
z technologického úhlu pohledu.
Proto se zahájil projekt „Nová pátení sí“ zamený na vyhodnocení a následné zavedení nových
technologií.
IT a infrastruktura starého a nového systému
V tomto projektu byla zvolena pátení sí založená na MPLS (Multi-Protocol-Label-Switching, protokol
pro pepínání podle návští). Sí založená na této technologii nabízí optimální charakteristiky
odpovídající vysokým požadavkm divize Postbank IT a významn zlepšuje energetickou bilanci.
Pro Postbank jakožto podnik certifikovaný podle ISO 14001 je nízká spoteba energie významným
kritériem pi výbru nových technologií.
S technologií MPLS se fyzická sí rozdlí do logických, nezávislých sub-divizí neboli klient. Tato
virtualizace spluje zvýšené požadavky na škálovatelnost a snadnou správu sít a rovnž také na
ochranu datových spojení ped neoprávnným pístupem.
Nová pružná a zašifrovaná pátení sí byla pedstavena poátkem roku 2009. Postbank tak jako
„early mover“ (asný tahoun) nastavila standardy v bankovním sektoru.
Cestovní mapa datového centra
20
Opatení pro optimalizaci systému
Po pedstavení pátení sít MPLS byly síové prvky z datového centra odstranny a nahrazeny krok za
krokem novými komponenty. Tyto komponenty a s nimi spojená zmna v technologii poskytují odlišné
logické sít a dokonce i síové porty, zatímco stará technologie používala dedikovaný hardware
a elektrické spoje. Díky sub-divizím nový systém dovoluje dramatickou redukci nezbytného hardwaru
na všech lokalitách/instalacích. Zatímco staré datové centrum a systém poboek vyžadoval pibližn
400 router a switch s roní spotebou energie cca 1.438.480 kWh, virtualizovaná sí potebuje
pouze 188 síových komponent, které ron spotebují kolem 588.234 kWh. Výsledkem je, že
dosažené energetické úspory dosahují více než 59 %.
Zavedení logicky oddlených sítí dále znamená, že decentralizované firewally jsou nyní (nov)
redundantní. Toto opatení snížilo roní spotebu energie z 63.072 na 24.528 kWh, což je ekvivalent
znamenající více než 61% úspor energie za firewall servery. Poslední fáze virtualizaního procesu bude
završena koncem bezna 2012. Poslední komponenty dedikované distribuní sít budou do té doby
z vývojové sít Postbank odstranny. Tento krok bude v dsledku znamenat úspory energie pes 52 %
neboli 170.820 kWh ron oproti dnešní distribuní infrastruktue.
Zavedení tchto nových technologií celkem snížilo spotebu energie v pedmtných oblastech
o 1.059.610 kWh ron, což pedstavuje 58%.
Ekonomická úinnost aplikovaných opatení
Ve srovnání s relativn dlouhou dobou provozu síových zaízení byly, vedle rychlé „návratnosti
investic“, nejdležitjší ekonomickou hodnotou provedených opatení snížené náklady za energii
dosažené díky energetickým úsporám ve výši 58 %. S ohledem na zlepšenou bezpenost a zvýšenou
dostupnost byl výsledkem také významný marketingový potenciál pro poskytované služby.
Shrnutí dležitých aspekt:
ႛ Nová síová zaízení s životním cyklem 10 let
ႛ Návratnost investic je pibližn < 18 msíc
ႛ Nahrazení switch je navázáno na životní cyklus server kvli migraci softwaru
Klíové aspekty a faktory úspchu
ႛ Pedbžné testování konfigurace sít v laboratoi Cisco v San Jose
ႛ Migrace pro neperušitelný provoz
ႛ Zavedení holistické (celostní) virtualizace od klienta až k portu serveru
ႛ Zlepšená bezpenost šifrováním všech WAN/DWDM pipojení (pro penos dat mezi datovými
centry DC-Bonn a DC-Frankfurt)
ႛ Všechny uplinky WAN/LAND nastaveny na aktivní stav, což vede k vysokým úsporám náklad
a zlepšení dostupnosti (>99,999%)
21
3.3.2. regio iT Aachen (Cáchy), Nmecko
Virtualizace server v kombinaci s dalšími opateními pro systém chlazení
Úvod
Podlahová plocha:
220 m2
Poet server/IT-rozvad:
Pes 50 rack
a kolem 480 server
Jejich elektrický píkon:
150 kW
Období realizace:
2008 - 2010
Kategorie Tier:
II a III
Další informace:
www.regioit-aachen.de
Kontakt:
p. Bernhard Barz
Tel.: 0241-413 59 96 26
Jako poskytovatel IT služeb je regio iT aachen
partnerem pro obce, místní podniky, distributory
energií, spolenosti pro nakládání s odpady,
školy a neziskové organizace.
Spolenost regio iT aachen nabízí strategické
a projektov orientované IT konzultaní služby,
integraci, IT infrastrukturu a komplexní servis.
V souasnosti regio iT aachen se svými cca 280
zamstnanci a 20 praktikanty podporuje pes
16.000 klient a 100 škol a vyšších odborných
škol. Dodáváme naše služby se zajištnou
kvalitou a také, protože jsme první místní
datové centrum, jsme tikrát certifikováni podle
mezinárodních norem ISO 9001, ISO 20000
a ISO 27001.
regio iT aachen provozuje IT a také pidruženou infrastrukturu. Vedle toho menší ást prostoru se
pronajímá. Budova datového centra má i další využití, které bylo z energetické analýzy vyjmuto.
IT a infrastruktura starého a nového systému
Na základ monitoringu energie regio iT aachen od roku 2007 soustavn ídí energetické požadavky
související s provozem datového centra. S roní spotebou energie dosahující 1.250.000 kWh pro IT
a 640.000 kWh pro podprnou infrastrukturu (distribuce napájení, klimatizace atd.) je podíl spoteby
IT zaízeními vi celkové spoteb energie pibližn 65 % (což odpovídá prmrnému PUE 1,5).
Datové centrum je zalenno do kanceláského komplexu a skládá se ze 6 serveroven. Využitelná
plocha pro IT o velikosti 220 m2 se zcela provozn zaplnila v roce 2009. Datové centrum mlo více než
50 IT rozvad a kolem 480 server pi nominálním elektrickém píkonu IT zaízení 155 kW. Pi
provozu na plný výkon byly dosaženy limity systému chlazení. Výkonová hustota IT byla 1 kW / m2
podle plochy serveroven. Spoteba energie IT infrastrukturou vzrostla o více než 25 % bhem jednoho
roku.
Oproti ostatním datovým centrm byla výkonová hustota se svými 5.000 kWh/m2 na horní hranici.
Prmrná instalovaná kapacita byla 300 W na server. IT infrastruktura se skládala ze 480
rozvadových server, na kterých bželo pibližn 120 virtuálních server.
V souasnosti není datové centrum vybaveno volným chlazením a koeficient výkonu klimatizace byl
pomrn slabý (COP=2).
Požadavky na dostupnost datového centra jsou srovnatelné s klasifikací Tier II. Nkteré komponenty
splují požadavky Tier III.
22
Opatení pro optimalizaci systému
Údaje z monitoringu energie se
detailn analyzují s vdeckou
podporou Technické univerzity
Berlín. Výsledky ukazují, že
stávající chladicí zaízení se
využilo na plný výkon a že další
vývoj IT by nebyl s existující
infrastrukturou možný. Vstupní
a výstupní
teploty
v systému
obíhajícího vzduchu byly velmi
nízké. Kvli zbytenému míchání
horkého a studeného vzduchu
v ulikách mezi IT rozvadi bylo
úsilí chladicího systému píliš
vysoké. Vedle toho velmi nízké
teploty chladicí vody vedly ke
slabému COP chladicího zaízení.
Ve dvou místnostech byly na
základ analýzy z roku 2009
naplánovány
a
zprovoznny
konkrétní opatení pro zvýšení
úinnosti. Nevyužívané oblasti
rozvad byly dsledn uzaveny (záslepkami,
krycími panely) a byl optimalizován píchozí tok
vzduchu ze zdvojené podlahy.
Rozložení teploty ve studené ulice 2008/2009
Rozložení teplot v horké ulice 2008/2009
Poté se krok za krokem zvyšovaly teploty vstupního a výstupního vzduchu obíhajícího klimatizaním
systémem ze 14/21 °C na 16/24 °C. Výsledkem je, že klimatizaní zaízení pro cirkulaci vzduchu lze
provozovat s vyšším teplotním spádem (T = 6 až 7 K). Úinnost penosu tepla se výrazn zlepší.
Nárst vstupní a výstupní teploty chilleru je možné vidt jako další potenciál pro lepší úinnost, který
se sice nyní nevyužívá, ale mohl by být uchopen v budoucnosti.
Pro místnost s nejvyšší výkonovou hustotou a její úzké hrdlo –chlazení– bylo instalováno uzavení
studené uliky, jehož výsledkem je mnohem lepší separace horkého a studeného vzduchu
v serverovn.
Pro pípravu dalších opatení byla instalována pídavná micí zaízení ke zjištní teplot na rozvadích
(36 micích bod) a stanovení toku a teploty vzduchu v 5 bodech pod zdvojenou podlahou.
V období 2008 až 2010 se IT infrastruktura virtualizací posunula na cca 500 fyzických a 750 virtuálních
server. Energetický píkon 150 kW bylo možné udržet beze zmny díky doprovodným opatením pro
optimalizaci chlazení.
Poet IT služeb a aplikací se mohl se zlepšeným chlazením a virtualizací výrazn zvýšit bez dalších
zásah do podprné infrastruktury datového centra.
Spoteba energie a využití IT ve staré a nové IT instalaci
V dsledku inteligentní kombinace virtualizace a zlepšeného chlazení bží v datovém centru mnohem
více IT služeb a aplikací než v roce 2009 pi tém stejné spoteb energie, akoli chladicí zaízení
dosáhlo svého plného výkonu již v roce 2009. Produktivitu datového centra bylo možné zlepšit pi
stabilních nákladech (za elektrickou energii).
23
V dsledku virtualizace vede lepší využívání kapacity IT
také k lepšímu využívání UPS. Ztráty se snižují v pomru
s elektrickým píkonem. Pomr mezi fyzickými a
virtuálními servery se zlepšil ze 480/120 na 500/750 pi
stabilním požadavku na píkon 150 kW.
Upozornní: Popisovaná zlepšení úinnosti nejsou
zohlednna v PUE, jelikož PUE není bezprostedn
svázáno s vlastním používáním IT. V dsledku doasného
paralelního provozu server bhem virtualizaní smny
se PUE dokonce krátkodob navýšilo.
Uzavení studené uliky
Ekonomická úinnost aplikovaných opatení
Kapitálové (investiní) náklady na zlepšené chlazení byly menší než 25.000 Euro. Doba návratnosti je
kratší než 1 rok, protože výdaje za elektrickou energii se snížily pibližn o 15 %.
Klíové aspekty a faktory úspchu
ႛ Inteligentní kombinace virtualizace, konsolidace a zlepšeného chlazení
ႛ V dsledku virtualizace zlepšené využívání IT zaízení také vede k lepší úinnosti UPS. Ztráty na
UPS se snižují stejnou mrou jako energetický píkon IT zaízení.
24
3.3.3. Jerlaure, Francie
Kombinace energeticky úinného úložišt dat, optimalizace sít a volného
chlazení
Úvod
Podlahová plocha:
70 m2
Cílem „zeleného datového centra“ je celkov
snížit energetické ztráty v technologických
Poet server/IT-rozvad:
10 server rack, max. 20
souborech, použít virtualizaci k optimalizaci IT
Jejich elektrický píkon:
50 kW
infrastruktury a, kde je to možné, získat zpt
kalorie pro výrobu energie nebo topení.
Období realizace:
2011
JERLAURE naprosto podporuje tento pístup –
Kategorie Tier:
III
volný prostor pro pokrok je znaný, jelikož
Kontakt:
www.jerlaure.fr
existuje velký poet energeticky nároných
datových center, ve kterých se bhem doby
nashromáždilo mnoho špatných instalací a praktik nevalné úrovn. Finanní úspory jsou výchozím
bodem všeobecného uvdomní, který zasahuje do všech hledisek provozování IT, a to vetn
aplikaních prostedí.
Služby, produkty, ešení nebo principy zlepšující úinnost datového centra zahrnují: inteligentní
napájecí panely (PDU), modulární záložní zdroje (UPS), boní chladicí jednotky umístné v ad IT
rozvad, uzavení uliek pro separaci a ízení tok vzduchu, škálovatelné zaslepovací panely,
pepážky a deflektory pro proudní vzduchu, energeticky úinné chladicí systémy používající odtahové
ventilátory s variabilní rychlostí, energeticky úinné chladicí systémy s ízením výkonu kompresor,
uspoádání IT rozvad v sále podle principu studená ulika – horká ulika, nástroje pro
management datového centra, zvýšení teploty pivádného chladicího vzduchu (18 °C, místo 16 °C),
analýza komponent klimatizaního etzce pi zohlednní zátže datového centra.
Spoteba energie a využití IT
Systém
Datové centrum Jerlaure
Spoteba energie
20 kW (na zaátku využívání)
Standardizovaná metrika
PUE = 2,34 od ervna do záí 2011,
pedpokládal se pokles
Systém
Datové centrum Jerlaure
Teplota prostedí ve °C
21 °C
Relativní vlhkost v %
20 °C
Cílové nastavení sálových chladicích jednotek ve °C
(CRAH set point)
50 %
Popis IT systému
IT systém obsahuje:
ႛ 2 blade serverová chassis s 28 blade servery
ႛ Kolem 20 fyzických server
ႛ Vžové servery UNIX
Existují dv redundantní datová centra, vzájemn oddlená stovkami kilometr.
25
Opatení pro optimalizaci výkonu
ႛ Chillery ve volném chlazení, podízené chladicím
jednotkám (regulace teploty podle velikosti chlazené
tepelné zátže)
ႛ Chladicí jednotky s variabilním prtokem
ႛ Vysoce úinný záložní zdroj (UPS) s úiníkem 0,9
ႛ Uzavení studených uliek
ႛ Uzavená trasa pro návratový tok vzduchu
Koncepce mení
Existuje 5 micích stanic:
ႛ 3 stanice jsou instalovány ve tech elektrických
distribuních rozvadích (UPS, chladicí systémy, další
aplikace v datovém centru jako napíklad osvtlení)
ႛ 2 stanice jsou instalovány v elektrických distribuních
rozvadích za UPS (zdroj IT zaízení)
Software získává všechna data z micích stanic a poskytuje rozhraní pro výpoet PUE ze
zaznamenaných dat. Výpoty mohou být provádny po uritých periodách (den, týden, msíc, rok).
Shrnutí
Není-li ízení vlhkosti výslovn požadováno zákazníkem, mlo by se vyhodnotit, zda je skuten
potebné nebo nikoli, protože ovlivuje celkovou úinnost datového centra. V datovém centru této
velikosti není dodávka erstvého vzduchu pro hygienickou výmnu podstatná, takže ízení relativní
vlhkosti není bezpodmínen nutné, nepožadují-li jej nkteí stavitelé.
Uzavení návratového vzduchu je technickou možností, kterou lze s uzavením studené uliky rovnž
zvážit (závisí na výšce stropu). Zaprvé optimalizuje správu tok vzduchu jejich co nejvtším
oddlením. Vedle toho snižuje teplo vyzaované z prostedí sálu a poskytuje vyšší komfort personálu,
který mže uvnit serverovny pracovat.
Koncepce optimalizace datového centra musí integrovat prvky píznané pro „kontejner” a další,
specifické pro „obsah“. Je zásadní pracovat na environmentálních aspektech „obálky“ a optimalizovat
technické architektury tím, že podporujeme provozovatele v zavádní provozních, ídicích a prostorov
optimalizaních postup a opatení v jejich datovém centru. Optimalizace „obsahu“ pak znamená
konsolidaci, virtualizaci používání server s nízkou spotebou energie.
Co se týe „obálky“, musí umožovat ízení tepelné výmny. Její umístní a její koncepce jsou
zásadními parametry, rovnž také výbr chladicí metody a komponent chladicího etzce. etzec
elektrického napájení je také vysoce energeticky nároným prvkem. Jeho architektura musí být
pizpsobena k dané aplikaci a vyvarovat se zbyteného naddimenzování. Musí se nastudovat mnoho
dostupných technologií a musí se urit nejlepší kompromis mezi investiními a provozními náklady.
26
Klíové aspekty a faktory úspchu
Nasazené chladicí systémy by mly umožnit dosažení významných úspor energie. Využívání
technologie (chiller a chladicích jednotek) je, co se výroby chladu a jeho distribuce týe,
homogenní. Proto rzné prvky etzce mezi sebou komunikují, aby pizpsobily dodávku chladu
aktuálním potebám.
Nastavení cílové teploty pro vodu (set pointu) je v rozsahu 7-12°C, v závislosti na potebách
chlazení set-point automaticky narstá a dodává se pesn jen potebný a dostatený tok a teplota
vody, které respektují nastavený set point.
27
3.3.4. GEMINIS, Španlsko
Optimalizace datových úložiš a sít v kombinaci s dalšími opateními
v oblasti chlazení
Podlahová plocha:
400 m2
Poet server/IT-rozvad:
95
Období realizace:
2008 - 2009
Kategorie Tier:
II
Další informace:
www.eroski.es
Spoteba energie a využití IT
Systém
Starý
Nový
Zlepšení
Spoteba energie
380 kW
287 kW
93 kW
Energetická úinnost na úrovni infrastruktury
založená na standardizované metrice
PUE =
1,9895
PUE =
1,6996
PUE = 0,2899
Energetická úinnost na úrovni IT založená na
specifické metrice
191 kW
169,43 kW
21,57 kW
Využití IT
60 %
85 %
Parametry prostedí
Systém
Starý
Nový
Teplota prostedí ve °C
22,5 °C
24 °C
Teplota vzduchu na vstupu IT zaízení ve °C
19 °C
23,5 °C
Relativní vlhkost v %
47 °C
42 °C
28
Topologie napájení rozdleného
redundantního systému
1
Transformátor 1600 kVA
2
Náhradní zdroje 1375 kVA
2
Automatické pepínae smru napájení
1
UPS pro 500 kVA v každé vtvi
Opatení pro optimalizaci systému
K vyhodnocení spoteby energie, úinnosti
a provozní zátže byla proveden monitoring
napájení na vstupu hlavního vypínae a na
výstupních panelech záložního zdroje (UPS).
Energetická úinnost IT infrastruktury by
mohlo zlepšit zohlednní následujících
klíových aspekt:
ႛ Snížení obecného míchání horkého
a studeného vzduchu na návratové trase vzduchu do chladicích jednotek.
ႛ Eliminace neobsazených U-pozic a otvor v IT rozvadích.
ႛ Izolace horkých a studených uliek v IT infrastruktue.
ႛ Utsnní otvor (výez) v podlaze a prostoru pod zdvojenou podlahou.
ႛ Nastavení cílových teplot klimatizaních jednotek.
ႛ Virtualizace a konsolidace IT infrastruktury
29
3.4. Optimalizace chlazení a toku vzduchu s nízkými investicemi
3.4.1. Finanní korporace ve Frankfurtu, Nmecko
Zlepšení toku vzduchu a teplotní hladiny v datovém centru
Úvod
Podlahová plocha:
750 m2
Poet server/IT-rozvad: 90
Jejich elektrický píkon:
540 kW
Období realizace:
2010
Další informace:
Dr. Peter Koch
Emerson Network Power
Knürr GmbH
[email protected]
Kontakt:
Tažena ekonomickým poklesem, roku 2009
spolenost
zaala
vyhledávat
píležitosti
znamenající podstatnou krátkodobou úsporu
náklad. Spoteba datového centra byla
identifikována jako jeden z potenciálních cíl
této iniciativy. K prokázání navržené koncepce
bylo za úelem upgradu vybráno jedno stedn
velké datové centrum. Oekávalo se zavedení
opatení
bhem
3 msíc
a dosažení
amortizaní lhty kratší než 18 msíc od
poátení investice. Klíovým požadavkem bylo
použít všechny prvky dodateného vybavení bez
perušení provozu datového centra.
IT a infrastruktura starého a nového systému
Obrázek
1
ukazuje
ponkud
zevšeobecnný
nákres
podlahy
datového centra. Chlazení pro IT
zaízení
je
poskytováno
sálovými
chladicími jednotkami stojícími na
podlaze kolem, které dodávají chladicí
vzduch
prostorem
pod
zvýšenou
podlahou a pes perforované podlahové
panely k rozvadm s IT zaízeními.
Velký sál (750 m²) byl pvodn navržen
pro IT zátž o velkosti 540 kW, což
znamená docela nízkou výkonovou i
tepelnou hustotu kolem 750 W/m².
Ve skutenosti byly IT rozvade
osazeny na stední výkonovou hustotu,
v prmru na 6 kW. Dostupná energie
tedy
postauje
práv
pro
90
Zjednodušená koncepce podlahy datového centra
IT rozvad, piemž ponechává tém
polovinu sálu prázdnou. Kvli této
skutenosti a za úelem poskytnutí dostateného množství chladicího vzduchu, se používaly neobvykle
široké studené uliky. Pesto chladicí systém musel pracovat s nízkou teplotou vzduchu na úrovni
kolem 16 °C, aby zmírnil horká místa (hotspoty) v horních pozicích IT rozvad.
Podél dvou stn a na stedové linii sálu bylo instalováno 14, nkolik let starých sálových chladicích
jednotek pracujících v systému s chladicí vodou. Jednotky byly vybaveny ventilátory pro stídavé
napájení (AC ventilátory), pracujícími s konstantní rychlostí a elektrickým píkonem 71,5 kW, tj. 13,2
% zátže IT. To je mnohem více, než lze srovnávat s dnešní špikou. Pi úrovni náklad 0,137 € za
kWh dosahovaly souhrnné výdaje na energii pro sálové chladicí jednotky až 85.800 €.
30
Opatení pro optimalizaci systému
Pro dosažení maximální energetické úinnosti je ešení postaveno na tech hlavních prvcích:
ႛ dsledné oddlení chladného pivádného vzduchu od horkého návratového vzduchu
ႛ dodávka vzduchu ízena podle požadavku
ႛ set point odpovídá nejvyšší možné teplot chladicího vzduchu (k prodloužení interval volného
chlazení)
Koncepce studená ulika / horká ulika
Za daných poáteních podmínek – neobvyklé šíce studené uliky 3600 mm – nebylo možné
instalovat standardní uzavení studené uliky. Byly navrženy speciální sekce o hloubce 600 mm,
používající standardní rámy a dvee IT rozvad, které se pipojily z elní strany ke stávajícím IT
rozvad (viz obrázek 2). Tyto rozšiující sekce zachytávají vzduch vycházející ze zdvojené podlahy
a dodávají jej k zaízením v IT rozvadích. Pro zamezení recirkulace vzduchu pes IT rozvade byly
všechny volné pozice a otvory osazeny záslepkami. Takto se veškerý chladný vzduch vede pes IT
komponenty, je zabránno jakékoli recirkulaci horkého vzduchu a hotspoty jsou zcela vyloueny.
Pro umožnní ízení toku vzduchu musely být stávající AC ventilátory v sálových klimatizaních
jednotkách vymnny za EC ventilátory s iditelnou rychlostí. EC ventilátory (Electronically
Commutated) již mají lepší energetickou úinnost pi plné rychlosti než tradiní ventilátory. Vedle toho
umožují dosáhnout obrovských úspor energie ízením rychlosti ventilátor. Pi rychlosti 50% je
spoteba energie EC ventilátor kolem jedné osminy spoteby odpovídající 100% rychlosti!
31
Pro tení hodnot z teplotních senzor umístných v IT rozvadích a ízení rychlosti ventilátor
v sálových klimatizaních jednotkách (CRAC) byl navržen a implementován ídicí systém založený na
PLC. Všech 14 CRAC jednotek bží paraleln, aby mly nejlepší možnou energetickou úinnost.
ízením rychlosti ventilátor se systém neustále pizpsobuje aktuálním požadavkm IT zaízení na
chlazení. V pípad výpadku jedné CRAC jednotky ostatní jednotky zvýší rychlost, aby udržely
požadovaný tok vzduchu.
Výsledkem zavedených opatení bylo snížení rychlosti ventilátor na mén než 50 % z plné rychlosti
a tím i dosažení podstatných úspor energie, jak je uvedeno dále v textu.
Jako výsledek dsledného oddlení vzduchu mohla být teplota pivádného chladicího vzduchu
zvýšena ze 16°C na 22°C. V tomto pípad z toho vyplynula pouze trochu zlepšená úinnost chladicího
systému. Stávající systém chladicí vody pro budovu musel zstat nedotknut, takže z rozšíeného
volného chlazení nebylo možné dosáhnout žádných zisk. Pouze mohl být rozšíen provoz stávajícího
chladicího systému s erstvým vzduchem do vyšších teplot prostedí, což vygenerovalo njaké úspory.
Ekonomická úinnost aplikovaných opatení
Hlavním výsledkem zavedených opatení je podstatné snížení spoteby energie sálovými chladicími
jednotkami. To je do urité míry založeno na lepší energetické úinnosti EC ventilátor, ale z vtší
ásti na regulaci rychlosti ventilátor v sálových jednotkách podle požadavku. V prmru ventilátory
bží s rychlostí 40 až 50 % a prmrná celková spoteba energie je 4,8 kW, což odpovídá 0,9 %
napájené IT zátže. Pro srovnání uveme, že pedchozí spoteba ventilátor byla 71,5 kW, což
odpovídá 13,2 % napájené IT zátže.
Roní úspory výdaj za elektrickou energii dosahují až 80.000 €. Navíc dalších 70.000 € se získalo ze
zvýšené teplotní hladiny. Celkové roní úspory: 150.000 €.
Shodou okolností se celková investice rovná roním úsporám: 70.000 € za výmnu ventilátor,
45.000 € za speciální rozšíení IT rozvad a 35.000 € za ídicí a monitorovací systém – celkem
150.000 €.
Amortizaní lhta: 1 rok.
Klíové aspekty a faktory úspchu
V tomto pípad byly zcela zásadní ti hlediska:
1.
Schopnost navrhnout speciální elní sekce pro IT rozvade sloužící k oddlení vzduchu
v netypickém sále, vycházející ze standardních díl.
2.
Schopnost provádt pístavby a zmny v datovém centru bez perušení provozu, zakládající se
na vhodných technologiích a dílech a také na promyšleném postupu implementace.
3.
Schopnost poskytovat spolehlivé pedpovdi o nákladech a dosažitelných úsporách, aby
oekávaný ekonomický zisk nastal.
Dalším dležitým aspektem bylo schválení návrhu sdružením VdS (nmecké sdružení pro požární
bezpenost).
32
3.4.2. Laborato subatomární fyziky a kosmologie (LPSC), Francie
Zlepšení toku vzduchu a vlhkosti
Podlahová plocha:
20 m2 (IT rozvade) a
20 m2 (provozní zázemí)
Poet server/IT-rozvad:
8
Jejich elektrický píkon:
60 kW
Období realizace:
2008 - 2011
Kategorie Tier:
II
Kontakt:
[email protected]
Spoteba energie a využití IT
Systém
Nová instalace
Spoteba energie
525 600 kWh/rok (60kW)
Energetická úinnost na úrovni infrastruktury
založená na standardizované metrice
PUE = 1,078 (0,045 chlazení a 0,033 UPS)
Využití IT
CPU prmrné využití 50%, špikové 100%
Velká ást spoteby je vázána na datové
úložišt, kde využití není velmi relevantní
Parametry prostedí
Systém
Nová instalace
Teplota prostedí ve °C
13 až 23 °C vpedu
23 až 39 °C vzadu
Teplota vzduchu na vstupu IT zaízení ve °C
13 až 23 °C vpedu
Relativní vlhkost v %
10 % až 80 %, (zídka << 0,5 % relativní
vlhkost 85 %)
IT a infrastruktura starého a nového systému
IT služby laboratoe zahrnují web, e-mail, externí pístup, databáze a datová úložišt. Vtšina služeb
je virtualizována s VMWARE (3 vmware servery, redundance napájecích zdroj, servery napájené pes
UPS (30 kVA)). Zdroje pro výpoetní sí LHC (WLCG) : LPSC poskytuje zdroje pro WLCG na úrovni
datového centra Tier 2. (700 jader, 700 TB (hrub))
Výpoetní sál LPSC používá volné chlazení s duálním režimem: Pro 85 % doby, kdy je venkovní teplota
nižší než 25 °C, se mže používat pímé volné chlazení vzduchem a pro zbývající období se používá
volné chlazení voda-vzduch.
33
Princip pímého volného chlazení vzduchem je docela jednoduchý: chladit produkní servery a datová
úložišt když je venkovní teplota nižší než 25 °C, což je v Grenoblu kolem 85 % roní doby; vzduch se
nasává zvenku a používá se pímo pro chlazení server. Vzduch vycházející na zadní stran server je
pak vyfukován zpt ven. Využívá se zde kompletní oddlení horkého a studeného toku vzduchu, tedy
princip systém se studenou ulikou.
Je-li venkovní teplota píliš nízká, v našem pípad mén než 13 °C, pro vylouení posílání ledového
vzduchu pes servery pivádí recyklaní klapka trochu horkého vzduchu ze zadní strany IT rozvad
a míchá jej s venkovním vzduchem za úelem regulace vstupní teploty na cílovou hodnotu 13 °C.
Volné chlazení voda-vzduch: Je-li venkovní teplota vyšší než 25 °C, vzduch pro chlazení server se
stále bere zvenku, ale nejdíve je zchlazen na 25 °C jednoduchým výmníkem voda-vzduch. Studená
voda je erpána ze zem. Všimnte si, že toto je pímá výmna voda-vzduch bez kompresoru.
Opatení pro optimalizaci systému
1. ízení toku vzduchu
Prvním cílem pi ízení toku vzduchu bylo odvést maximální množství tepla. Tok vzduchu do systému
z vnjšího prostedí se rovná množství odvádného teplejšího vzduchu. Pro daný tok vzduchu závisí
množství odvádného tepla na teplotním rozdílu mezi pivádným a odvádným vzduchem; v rovnici
je to T (delta T). Z toho vyplývá, že odchozí vzduch by se nikdy neml míchat s chladnjším
vzduchem ped odsáním, jelikož toto sníží hodnotu delta T, a sníží výkon rozptýlený systémem.
Druhým cílem pi ízení toku vzduchu bylo získání
homogenní teploty ve studené ulice. Jak je
vysvtleno výše, chtli jsme použít pímé volné
chlazení tak dlouho, dokud píchozí vzduch má
teplotu nižší než 25 qC. Zjistili jsme, že je velmi
dležité se ujistit, že teplota ve studené ulice je
homogenní. V našem pvodním systému byly njaké
oblasti, kde byla pozorována teplota až o 7 qC vyšší.
Pro zajištní správného chlazení jsme museli náležit
snížit teplotu pemny a tím snížit rozsah, ve kterém
se mohlo používat pímé chlazení vzduchem, jelikož
venkovní teploty v Grenoblu jsou nižší než 18 ºC
pouze bhem 60 % roní doby.
Jak byl ízen tok vzduchu? Píka kolem IT rozvad
oddluje studenou uliku od zadní ásti IT skíní.
Veškeré IT rozvade bez zaízení jsou osazeny záslepkami. Boky IT rozvad byly zaizolovány
pnovkovými pásy. To bylo shledáno dostateným pro odstranní výše popsaných hotspot.
Obrázek: Výdech vzduchu
2. Vlhkost
Prvním bodem, který se musí vzít v úvahu, je, že moderní hardware je mnohem robustnjší, než byl
v pípad jen ped nkolika málo lety. Jsou akceptovány širší rozsahy teplot a vlhkostí. Dále, rychlé
technologické pokroky nás vedou k astjší obnov – tíleté – našich zaízení kvli lepšímu výkonu a
nižší spoteb energie, a zaízení je zídka kdy starší než 5 let. V dsledku toho jsou zaízení
nahrazována díve, než u nich dojde k njaké významné degradaci.
Výjimkou jsou jednotky s magnetickými pásy, které potebují regulaci vlhkosti, ale tu my v LPSC
žádnou nemáme, jelikož naše záloha se posílá do CCIN2P3 pes sí. Páskové jednotky potebují lepší
ízení vlhkosti, než kterou poskytuje volné chlazení.
Provozovatel nicmén musí zvážit dva limity vlhkosti. Vysoká úrove vlhkosti mže vést ke kondenzaci,
pi píliš nízké vlhkosti je možné pozorovat elektrostatické problémy.
34
Kondenzace se mže vyskytnout, když je venkovní vlhkost
vysoká a zárove venkovní teplota je vysoká. Když je
venkovní teplota taková, že musíme chladit vzduch
pedtím, než jej pošleme pes servery, je možné, že
dosáhneme bodu nasycení vzduchu. Ale to mžeme
pozorovat jen v míst tepelného výmníku voda-vzduch,
který je nejstudenjším místem. Všude jinde teplota roste
a tím vlhkost klesá. Problém byl jednoduše vyešen
pidáním odpaovae kondenzátu na úrovni tepelného
výmníku voda-vzduch.
Doposud nebyly pozorovány žádné projevy chybné funkce
v dsledku statické elektiny. Opatením by bylo umístit IT
rozvade a skín na uzemnnou antistatickou podlahu
a zajistit, aby byly individuáln uzemnny.
Ekonomická úinnost aplikovaných opatení
1. Nulové zastavení produkce z dvodu chlazení
Tepelný výmník voda-vzduch
Od bezna 2008 nezažilo LPSC žádné perušení provozu
související se systémem chlazení. Na zaátku projektu
z dvodu opoždné dostupnosti tepelného výmníku voda-vzduch a ventilaního systému pracovalo
LPSC bhem 2 chladných msíc (bezen a duben), bez nich! To dokázalo, že servery byly s to
natáhnout vzduch z venkovního prostedí pouze použitím svých vlastních ventilátor!
V lét 2010 bhem stavebních prací došlo v lokalit datového centra k perušení pívodního vodního
potrubí bagrem. Venkovní teplota byla 25 °C a díky pímému chlazení vzduchem byla produkce
schopna pokraovat i bhem opravy potrubí.
ႛ Problém s chlazením nemá žádný vliv na produkci, je-li teplota nižší než 25 °C: 85 % doby.
ႛ Takový problém bude mít malý vliv ve 13 % doby, kdy je teplota mezi 25 °C a 33 °C, protože
poíta mže pracovat bez poškození až do 33 °C.
2. Desetinové náklady na chlazení
Volné chlazení umožuje oproti tradiním prostedkm uspoit více než 90 % energie nezbytné pro
chlazení sálu.
ႛ Elektrická spoteba server a datových úložiš je v souasné dob 60 kW
ႛ Výkon ventilátoru je 2 kW pi toku vzduchu 16.000 m3/h
ႛ Maximální výkon ventilátoru je 3 kW pi maximálním toku vzduchu 23.000 m3/h
ႛ Když je tepelný výmník voda-vzduh používán, mže používat maximální prtok vody 20 m3/h.
Voda je do LPSC erpána pro použití v nkolika experimentech, nejen pro chlazení výpoetních
kapacit. Odhadujeme, že erpadlo pi používání výmníku voda-vzduch pijde na mén než 3 kW.
Elektrická spoteba chlazení o chladicím výkonu 60 kW je
ႛ 2 kW bhem 85 % doby v režimu pímého volného chlazení vzduchem
ႛ 5 kW bhem 15 % doby v režimu volného chlazení voda-vzduch
Prmrná cena chlazení pro 60 kW
ႛ 2 x 85 % + 5*15 % = 2,45 kW
Cena chlazení je pouze 4 % z celkové elektrické spoteby!
35
Klíové aspekty a faktory úspchu
Bhem období provozu našeho systému volného chlazení byla laborato LPSC schopna zlepšit svj
výkon. Mimoádn dležité jsou dva body:
ႛ Tok vzduchu do systému se musí zcela ídit.
ႛ Musí se rozumt problémm vznikajícím z úrovn vlhkosti.
36
3.4.3. Esselunga, Itálie
Rekonstrukce datového centra zajišujícího trvalou pítomnost na trhu
Úvod
Esselunga S.p.A. je italský maloobchodní
etzec. Byl prvním etzcem supermarket
v Itálii a byl prvním, který pedstavil nakupování
on-line a organické výrobky z vlastní produkce.
S 20.000 zamstnanci a 140 obchody mla
spolenost v roce 2010 obrat 6,3 miliardy Euro.
Esselunga ovládá asi 10 % italského trhu
distribuce potravin. Je zaazována na 4. místo
mezi nejziskovjšími spolenostmi evropského
maloobchodního sektoru (v pomru ke své
velikosti) a je 13. nejvtší italskou spoleností.
Podlahová plocha:
190 m2
Poet server/IT-rozvad:
42 IT rozvad,
110 server
Jejich elektrický píkon:
79,1 kW (meno na
výstupu UPS)
Období realizace:
2009 - 2011
Kategorie Tier:
II
Kontakt:
Esselunga, IT manager,
p. Enzo Greco
Spoteba energie a využití IT
Systém
Starý
Nový
Spoteba energie
není k dispozici
1’000’000 kWh/rok
2700 kWh/den
Standardizovaná metrika
PUE = >2,3
PUE = 1,85
Využití IT
Prmrné: 30 %
Prmrné: 30 %
Špikové: 50 %
Špikové: 50 %
Systém
Starý
Nový
Teplota prostedí ve °C
19
23
Relativní vlhkost v %
50
50
Cílové nastavení sálové chladicí jednotky ve °C
(CRAH set point)
15
20
Parametry prostedí
Popis IT a chladicího systému
ႛ Prmrné stáí IT zaízení podle typu: 2,5 roku (obmna IT po 5 letech)
ႛ Prmrné stáí zaízení datového centra podle typu (zaízení distribuce napájení a chlazení): 9 let
ႛ Chlazení a vzduchotechnika: CRAH jednotky zapojené s DX chladicím systémem (chladicí výkon
133,2 kW)
ႛ Procenta modelového datového centra: 50 % databáze, 30 % aplikaní a web služby, 20 %
základní služby IT infrastruktury
ႛ Celková projektovaná zátž datového centra: 160 kVA (+ 160, redundantní)
ႛ Procentní podíl server používající virtualizaci: 250 instalovaných virtuálních server
37
V sále datového centra je možné pozorovat všechny pro datové centrum typické IT komponenty:
servery, datová úložišt, sí, napájení a zaízení pro nepetržitý provoz. V datovém centru jsou
instalovány i záložní zdroje (UPS) a to z dvodu prostorových omezení v pedmtné budov. Typy zde
provozovaných služeb pedstavují hlavn databáze, datové sklady, aplikaní servery a základní služby
infrastruktury (e-mail, souborové servery atd.). Úrove požadované redundance je Tier 2.
Opatení pro optimalizaci systému
Datové
centrum
pro
trvalou pítomnost na trhu
obdrželo
celkové
vyhodnocení provedené
spoleností HP na zaátku
roku 2010. Uprosted
roku 2011 bylo provedeno
nkolik
zlepšení:
pedevším
správné
peuspoádání místnosti
do
horkých/studených
uliek,
pesunutí
perforovaných
podlahových
panel
v chladných zónách a osazení zaslepovacích panel s peorientací IT rozvad a zaízení podle toku
vzduchu: To je operace, která poskytuje lepší parametry prostedí pro IT zátže. Souasn bylo
optimalizováno rozložení zátže v IT rozvadích: Zaízení s velkým píkonem byly pesunuty blíže
k nejchladnjšímu toku vzduchu (typicky do spodní ásti IT rozvad).
Celý kabelážní systém byl zdokonalen:
veškeré výezy a možné zkratky mezi
horkou a studenou ulikou byly utsnny
a tok vzduchu pod podlahou má mén
pekážek.
Druhým krokem byla optimalizace sestavy
UPS: Stávající ti záložní zdroje pracovaly
s nízkými úrovnmi zátže. Jeden z nich
se stal standby jednotkou a dva v provozu
nyní pracují s optimální úrovní (alespo
50 % zátže).
V poslední fázi bylo korigováno umístní
senzor pro ízení sálových chladicích
jednotek (dále od upevnní svítidel
a dalších rušivých zátží). Optimalizaní proces se postupn doplnil jemným doladním teplot vzduchu.
Chlazená zátž je v dsledku renovace nižší: Zatímco díve pracovaly tyi sálové chladicí jednotky
naplno, nyní aktivn pracují pouze ti a mají snížený výkon – tvrtá jednotka je nyní k dispozici jako
redundantní.
V posledních msících byly instalovány konstrukní prvky pro uzavení uliek: Pracovní monitoring
bude poskytovat doplující data pro lepší vyhodnocení celého procesu optimalizace.
Ekonomická úinnost aplikovaných opatení
Veškeré zásahy byly provedeny bez významných investic do specifického hardwaru nebo zaízení,
s výjimkou panel pro uzavení uliek, které jediné instaloval externí dodavatel. IT personál
spolenosti Esselunga si vzal na starost všechna zlepšení bhem výkonu normální údržby, plánované
na 3 msíce. Z tchto dvod není možné pesn vyhodnotit dobu návratnosti vázanou
ke zlepšovacím opatením.
38
Souasn postupný vývoj úsporných opatení sloužil pro zainteresovaný personál (divize IT
a technických služeb) jako školení o energetické úinnosti: pro spolenost Esselunga jsou dosažené
dovednosti a schopnosti obtížn mitelné a kvantifikovatelné.
Klíové aspekty a faktory úspchu
Primární faktor úspchu je široký zájem o úinnost a dobrý provoz a dále také IT a technický
personál, který je podporován z úrovn ízení spolenosti.
Proces zlepšování úinnosti je vnímán jako neustálá tvrí innost.
39
4. Kontakt
Mezinárodní koordinace projektu
Dr. Bernd Schäppi
Rakouská energetická agentura
Telefon +43 (0) 1 586 15 24-0
E-mail: [email protected]
40