华拓科技网
您的当前位置:首页数据中心能耗分析精编版

数据中心能耗分析精编版

来源:华拓科技网
……………………………………………………………最新资料推荐…………………………………………………

数据中心能耗实例分析

前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、 数据中心节能的必要性

近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。

随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。

根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。

从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、 影响数据中心能耗的因素

数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。

1、UPS对数据中心能耗的影响

UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

1

……………………………………………………………最新资料推荐…………………………………………………

效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。

2、供配电系统对数据中心能耗的影响

数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、冷却塔、照明灯具等,这些变频设备会产生很大的谐波。此外,UPS、IT设备等也会产生很大的谐波。谐波对数据中心有非常大的危害,而且会增加能耗。对于用电负荷为1000kW的数据中心,进行谐波治理后,每年可节能100多万度电。

3、空调系统对数据中心能耗的影响

据美国采暖制冷与空调工程师学会(ASHRAE)技术委员会9.9(简称TC9.9)统计报告显示,数据中心各部分的用电量分布大致如下图所示:

2

……………………………………………………………最新资料推荐…………………………………………………

从上图可看出,空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。每个数据中心空调制冷的能耗存在很大差异,好的空调制冷方案可以极大降低能耗,降低PUE值。因此,本文以2个数据中心为例,着重分析空调系统对数据中心能耗的影响。 三、 数据中心空调系统实例分析 1、小型数据中心空调系统能耗分析

以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007年建成,IT机房总面积为530平方米,220个机柜。4台120kVA UPS,3用1备,每个机柜的平均功率为1.3kW。采用风冷式精密空调制冷,配置10台80kW显冷量空调,8用2备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成,几乎没有采用任何节能措施,仅在改建过程中对楼板、墙壁、门窗等进行加固、封闭及保温处理。 该机房的年PUE值为2.68。每天的用电量约为1.3万kWH。

该机房原配置8台精密空调,6用2备。机房建成后出现局部热点,经分析后,确定由3个因素所致。其一,因机房层高较低,机房架空地板仅为350mm,扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死角,气流无法有效流动。其三,空调室外机与室内机的高度较大,超过20米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的PUE值较高。

在这类机房中,机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限,造成精密空调的效率较低,也影响到数据中心的整体能耗较高。

2、大型数据中心空调系统能耗分析

该数据中心总面积约为3000多平方米,2009年初开始正式投入运行。在本

3

……………………………………………………………最新资料推荐…………………………………………………

项目中空调冷冻水系统采用了“Free Cooling”技术,在过渡季节利用压缩机+自然风冷却运行模式。在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4℃时,采用“Free Cooling”运行模式,即冷水机组停止运行,经冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换,将机房内的热量带走,此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、水泵及精密空调等设备在耗电,冷水机组完全没有耗电。在夏季及过渡季节当外界湿球温度高于4℃时,“Free Cooling”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷,回到传统的空调压缩机制冷模式运行。系统示意图如下图所示: 冷水机组 开式冷却塔

板式换热器 精密空调

作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对的制冷机房,每个冷冻机房有2台3500KW(合1000RT)的离心式冷水机组,3用1备。冷冻水供回水温度设定为11℃/17℃。考虑前期负荷较小,为避免离心式冷水机组在低负荷时发生“喘振”现象,系统配置2台400RT的螺杆式冷水机组。板式换热器按冷冻水11℃/17℃ ,冷却水 9℃/14℃进行设计。

为实现制冷系统的不同运行模式,冷冻水泵选择了2种不同扬程的变频水泵以适应“Free Cooling”运行模式和冷水机组制冷模式。

本系统的关键技术是空调系统的控制逻辑。控制逻辑的优劣直接关系的空调系统的能耗及系统安全。

在制定空调系统控制逻辑时,首先基于冷水机组、水泵、冷却塔的能耗数据及本地区的气象条件,提出了合理的节能系统流程图,并与假定冷水机组全年运行的能耗数据进行比较,在理论上做出节能运行分析。

其次,为了保证空调系统安全、节能运行,控制逻辑分为夏季和冬季2种模式。在由冷水机组转换到自然冷却时,为了避免冷水机组发生低温保护,必须首先开启冷却水管道的旁通阀,将冷却水水温提高,以便顺利开启冷水机组。

4

……………………………………………………………最新资料推荐…………………………………………………

冬季自然冷却时,冷却塔处于低温环境,而冷却塔又必须供应低于冷冻水温的冷却水(比如6-8℃的冷却水),控制逻辑必须防止冷却塔结冰现象的发生。

根据近几年的实际运行经验,本数据中心最迟从每年的11月下旬就可启用“Free Cooling”运行模式,一直可持续到第二年的3月底至4月中旬,即每年至少可使用4~4.5个月的免费冷源,节能效果非常显著。

下表是该某数据中心的2010年7月份至12月份的用电量统计及相应的PUE值。

时间 天数 总用电量 (度) 平均用电/天(度) 办公用电、空调、UPS损耗及照明用电/天(度) UPS用电/天(度) PUE值/天 7,487 1.76 9,509 1. 10,451 1.57 11,304 1.56 13,677 1.35 15,783 1.33 4,881 6,052 5,957 6,844 4,829 5,186 7月 31 8月 31 9月 30 492,240 16,408 10月 31 545,580 17,599 11月 30 12月 31 408,300 482,400 13,171 15,561 555,180 650,040 18,506 20,969 从上表可知,8月份 IT设备的负荷比7月份有所增加,因此8月份的PUE值比7月份略有降低。9、10月份平均气温低,此时冷却水温度较低,冷水机组效率得以提高,因此9、10月份的PUE值比7、8月份PUE值明显偏低。因当年11、12月份的气温较低,该系统已完全具备FREE-COOLING运行模式所需的条件,冷水机组压缩机已停止工作不再耗电。因此,此时虽然UPS的用电量在逐步加大,但空调的用电量却比7、8、9、10月份的用电量还要低,PUE值从1.76降低到1.33,节能效果非常巨大。 3、数据中心水处理系统与能耗的关系

大型数据中心通常采用冷水机组作为机房冷源,因此数据中心的水系统(冷却水及冷冻水)对于数据中心而言极为重要,其安全可靠性直接关系到数据中心的运行。不仅如此,水质也直接关系到节能的问题,例如北京地区水质较硬,当水系统中的结垢现象很严重时,空调系统的能耗也随之增加。

冷却水与空气接触进行热交换的同时也将空气中的污染物带入系统,进而会影响设备的正常运行。空调的冷却水系统易受到结垢,腐蚀,污垢,微生物等问题的困扰。其主要原因是冷却塔在通过水的蒸发将热量带走的同时,水中的离子浓度会不断升高,进而会加剧系统设备和管道的结垢、腐蚀。另外,在满足一定的温度、阳光、空气等条件时,水中会滋生很多微生物,微生物的存在会影响系

5

……………………………………………………………最新资料推荐…………………………………………………

统设备和管道的正常运行。

在空调专业上将冷却水出水温度与制冷剂的冷凝温度之差称之为冷冻机趋近温度。当冷水机组内的铜管干净时,该差值小也即趋近温度低;反之,当铜管有水垢粘附时,差值大也即趋近温度高。趋近温度越高,空调压缩机需要额外多做功压缩制冷剂,产生额外的电耗。根据实际运行中的统计,趋近温度每增加1℃,冷水机组即增加3%的能耗。此外,当趋近温度达到7℃时,会对冷水机组的运行造成非常大的危险。因此实时的检测水系统的水质并自动进行加药处理对数据中心的水系统尤为重要。

水系统自动检测及自动加药设备通过在线的、实时的控制,可以严格地控制水的电导率,控制电导率在合理范围内,根据电导率大小自动控制排污阀的开或关,使补水量更精确,从而达到节约用水的目的。下面以实例说明自动水处理系统在节电、节水方面所取得的效果。

某数据中心在采用自动水处理系统前遭遇冷冻机组结垢、微生物滋生等问题困扰,造成趋近温度升高,最高时达到6.5℃,产生了严重的能源浪费和运行风险。经过自动处理系统后,现趋近温度稳定在1℃以下。在处理前,冷水机组耗电量为202kw。处理后,在相同的负荷下,耗电量降为170kw。在采用“Free cooling”技术的前提下,冷水机组每年运行7.5个月计算,则一年节约用电为:

(202-165)kW * 24h * 225d =199800 kWh。 四、 数据中心运维能耗分析

1、提高机房环境温度。国内机房运行温度普遍偏低。我国关于机房的国标规定,A级机房的温度为23℃~24℃。通常情况下机房管理人员将此温度设为机房精密空调的回风温度。那么,精密空调的出风温度通常是18℃~19℃。但随着芯片技术的不断提高,芯片耐高温性能也在不断更新,IT设备可正常运行的温度也在不断地提高。国外有越来越多的数据中心设计和管理人员将机房精密空调的出风温度设置到27℃。据估算,制冷参数变化1℃,可能会产生5%~10%的能耗变化。此外,提高机房环境温度还可以延长节能装置(例如“Free Cooling”免费冷源)的使用时间,提高精密空调送风温度和提高冷冻水出水温度。

2008年ASHRAE给出了推荐的机房环境温度,如下图所示。图中红色线条区域为推荐的环境温度。在最新的《数据处理环境热指南(thermal guidelines for data processing environments)》中,该温度又有了提高。ASHRAE所给出机房环境温度是经过国际上主流IT设备供应商确认的,也就是说该机房环境温度并不与IT设备供应商的要求相抵触。

6

……………………………………………………………最新资料推荐…………………………………………………

2、UPS节能运行。在市电供电质量好的情况下,将UPS主机运行在旁路模式,使逆变器处于“休眠”状态,但当市电不满足要求时,逆变器迅速投入工作。这种工作模式可以有效的降低UPS自身损耗。

3、严格有效的数据中心管理可以极大的降低能耗,根据机房IT负载的变化及时调整精密空调的运行数量,调整风口地板出风面积,安装机柜盲板等措施。 五、 结束语

大型数据中心的能耗在不断的增加,从保护环境,节约能源的角度出发,国家应采取措施规范大型数据中心的建设,对大型数据中心采取相应的加以和引导。

我们在大力倡导节能减排,少开车,绿色出行等健康节能的生活方式,殊不知不加节制的网络浏览、网络游戏也是一种浪费能源。因为网络供应商为了追求快速浏览,需要安装大量的服务器,这些服务器无时无刻不在耗费大量的水、电等宝贵能源。你可能想象不到,在我们进行轻松聊天、视频的时候,你也在浪费着能源,产生着二氧化碳。

7

因篇幅问题不能全部显示,请点此查看更多更全内容