数据中心能耗分析范文
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
数据中心能耗实例分析
前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。
一、数据中心节能的必要性
近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。
随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。
根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。
从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。
二、影响数据中心能耗的因素
数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。
1、UPS对数据中心能耗的影响
UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作
效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS 的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。
2、供配电系统对数据中心能耗的影响
数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、冷却塔、照明灯具等,这些变频设备会产生很大的谐波。此外,UPS、IT设备等也会产生很大的谐波。谐波对数据中心有非常大的危害,而且会增加能耗。对于用电负荷为1000kW的数据中心,进行谐波治理后,每年可节能100多万度电。
3、空调系统对数据中心能耗的影响
据美国采暖制冷与空调工程师学会(ASHRAE)技术委员会9.9(简称TC9.9)统计报告显示,数据中心各部分的用电量分布大致如下图所示:
从上图可看出,空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。每个数据中心空调制冷的能耗存在很大差异,好的空调制冷方案可以极大降低能耗,降低PUE值。因此,本文以2个数据中心为例,着重分析空调系统对数据中心能耗的影响。
三、数据中心空调系统实例分析
1、小型数据中心空调系统能耗分析
以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007年建成,IT机房总面积为530平方米,220个机柜。4台120kVA UPS,3用1备,每个机柜的平均功率为1.3kW。采用风冷式精密空调制冷,配置10台80kW显冷量空调,8用2备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成,几乎没有采用任何节能措施,仅在改建过程中对楼板、墙壁、门窗等进行加固、封闭及保温处理。该机房的年PUE值为2.68。每天的用电量约为1.3万kWH。
该机房原配置8台精密空调,6用2备。机房建成后出现局部热点,经分析后,确定由3个因素所致。其一,因机房层高较低,机房架空地板仅为350mm,扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死角,气流无法有效流动。其三,空调室外机与室内机的高度较大,超过20米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的PUE值较高。
在这类机房中,机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限,造成精密空调的效率较低,也影响到数据中心的整体能耗较高。
2、大型数据中心空调系统能耗分析
该数据中心总面积约为3000多平方米,2009年初开始正式投入运行。在本
项目中空调冷冻水系统采用了“Free Cooling”技术,在过渡季节利用压缩机+自然风冷却运行模式。在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4℃时,采用“Free Cooling”运行模式,即冷水机组停止运行,经冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换,将机房内的热量带走,此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、水泵及精密空调等设备在耗电,冷水机组完全没有耗电。在夏季及过渡季节当外界湿球温度高于4℃时,“Free Cooling”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷,回到传统的空调压缩机制冷模
作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对独立的制冷机房,每个冷冻机房有2台3500KW(合1000RT)的离心式冷水机组,3用1备。冷冻水供回水温度设定为11℃/17℃。考虑前期负荷较小,为避免离心式冷水机组在低负荷时发生“喘振”现象,系统配置2台400RT的螺杆式冷水机组。板式换热器按冷冻水11℃/17℃ ,冷却水 9℃/14℃进行设计。
为实现制冷系统的不同运行模式,冷冻水泵选择了2种不同扬程的变频水泵以适应“Free Cooling”运行模式和冷水机组制冷模式。
本系统的关键技术是空调系统的控制逻辑。控制逻辑的优劣直接关系的空调系统的能耗及系统安全。
在制定空调系统控制逻辑时,首先基于冷水机组、水泵、冷却塔的能耗数据及本地区的气象条件,提出了合理的节能系统流程图,并与假定冷水机组全年运行的能耗数据进行比较,在理论上做出节能运行分析。
其次,为了保证空调系统安全、节能运行,控制逻辑分为夏季和冬季2种模式。在由冷水机组转换到自然冷却时,为了避免冷水机组发生低温保护,必须首先开启冷却水管道的旁通阀,将冷却水水温提高,以便顺利开启冷水机组。