大型数据中心节能冷却系统

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

大型数据中心节能冷却系统

鹏博士数据中心事业部王克宁李安平

()

目前就职于微软的数据中心最有影响的专家Christian Belady在2006年提出数据中心能源利用率(PUE)的概念。如今,PUE已发展成为一个全球性的数据中心能耗标准。数据中心的PUE的值等于数据中心总能耗与IT设备能耗的比值,比值越小,表示数据中心的能源利用率越高,该数据中心越符合低碳、节能的标准。

目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT 设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。据网络上收集的相关信息,目前GDS在建的4个机房在与第三方设计单位签约时,都是按照PUE值等于的标准进行规划的。世纪互联近五年建设的水冷数据中心的 PUE值在左右。鹏博士酒仙桥大型数据中心的PUE 设计值不超过。根据收集相关网站信息,全球最最节能的5个数据中心分别是:

■雅虎“鸡窝”式数据中心(PUE=)

雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布,每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个建筑是为了更好的‘呼吸’,有一个很大的天窗和阻尼器来控制气流。

■Facebook数据中心(PUE=)

Facebook的数据中心采用新的配电设计,免除了传统的数据中心不间断电源(UPS)和配电单元(PDUs),把数据中心的UPS和电池备份功能转移到机柜,每个服务器电力供应增加了一个12伏的电池。同时Facebook也在使用新鲜空气进行自然冷却。

■谷歌比利时数据中心(PUE=)

谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22℃),然而谷歌数据中心的温度超过80华氏度(27℃)。

■惠普英国温耶德数据中心(PUE=)

惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。

■微软都柏林数据中心(PUE=)

微软爱尔兰都柏林数据中心,采用创新设计的“免费冷却”系统和热通道控制,使其PUE值远低于微软其他数据中心的。

从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传统的UPS系统。对于数据中心,其能耗一般由IT设备能源消耗、UPS转化能源消耗、制冷系统能源消耗、照明系统和新风系统的能源消耗以及门禁、消防、闭路电视监控等弱电系统能源消耗五部分组成。如果需要降低PUE的值,就需要从以下四个方面采取措施。

■采用转换效率高的UPS系统。目前,新一代数据中心的设计基本采用新型的高频(IGBT技术)UPS系统,电源转换效率和功率因数都比传统的工频(可控硅技术)UPS系统有非常大的提升,而且重量轻和体积小。由于UPS的电源转

换效率和负载率成正向关系,因此在设计和运维时要尽可能提高UPS的负载率。目前国内电信和联通都在提倡使用高压直流UPS系统,取消了传统意义上UPS 的逆变功能,不仅电源转换效率提高3到5个百分点,而且可靠性大大提高。上面介绍Google和Facebook干脆在数据中心取消了传统的UPS系统,把电池和服务器的电源相结合,在正常运营时完全没有额外的能源消耗。

■采用高效节能的绿色制冷系统。主要是采用水冷空调和自然制冷措施,下面做详细介绍。

■采用LED绿色节能光源取代或部分取代传统光源,据了解,目前在世纪互联和鹏博士的数据中心部分机柜上已经安装LED光源。另外就是运维管理,做到人走灯关,根据人员情况确定新风系统的运行时间和风量。

■弱电系统总的能源消耗很小,一般不需要过多关注。但是如果可能的话,最好采用集中的高效直流供电系统,因为一般分布式的小型直流电源系统转换效率低,功率因数也低。

1、适合数据中心的空调系统介绍

由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、小温差和大风量。

空调系统的制冷能效比(COP)是指空调器在额定工况下制冷运行时,制冷量与有效输入功率之比。该数值的大小反映出不同空调产品的节能情况。空调系统的制冷能效比数值越大,表明该产品使用时产生相同制冷量时所需要消耗的电功率就越小,则在单位时间内,该空调产品的耗电量也就相对越少。

新的强制性国家标准《房间空气调节器能效限定值及能效等级》()由国家质检总局、国家标准委于2010年2月26日发布,从6月1日起将在全国范围内实施。此标准规定14000W制冷量以下民用空调器能效等级指标以及试验方法、检验规则、房间空调器产品新的能效限定值、节能评价值等。

针对空调系统制的冷能效比,需要特别说明以下两点:

■厂家给出的空调系统制冷能效比是在额定的工况条件下测试的,实际工况一般都要比额定工况差很多(包括负载和环境),因此空调系统的实际运行的能效比都要比厂家给出的低很多。

■针对数据中心的空调系统尤其特殊,一是全年不间断运行,工况差别非常的大;二是温度湿度控制精度高,除湿、加湿、加热、小温差大风量等比一般民用空调系统消耗的附加能量更多。

风冷精密空调

这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW

之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。

风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足:

■安装困难。大量的室外冷凝器安装需要非常大的场地,铜管过长不仅影响制冷效率,成本高,安装难度大,而且影响建筑物外观。室外冷凝器的安装位置受空间限制,极可能出现热岛效应,大大降低制冷效率。

■在夏天室外温度很高时,制冷能力严重下降甚至保护停机。目前国内的数据中心一般采用对室外冷凝器喷水雾或增加凉棚来改善其在夏天的制冷效果。因此数据中心在设计时不能按其额定的制冷量计算,需要留有足够的冗余。

■对于传统多层电信机房,一般把室外冷凝器安装在每层的四周,下层冷凝器的热量将不断向上散发,上层的冷凝器效率将大大降低,热量散不出去,形成严重的热岛效应。据了解,北方某联通数据中心因为热岛效应夏天机房的温度高达35℃以上,大约10%的服务器停机,用户只好运来冰块降温。

■精密空调内部风机盘管的工作温度大大低于露点温度,大量产生冷凝水,为了维持数据中心的湿度,需要启动加湿功能。除湿和加湿都要消耗大量的能源。为了加湿,需要将自来水进行软化,即便如此,还需要经常清洗加湿罐中的水垢。

离心式水冷空调系统

这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。

离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。离心式压缩机具有带叶片的工作轮,当工作轮转动时,叶片就带动气体运动或者使气体得到动能,然后使部分动能转化为压力能从而提高气体的压力。这种压缩机由于它工作时不断地将制冷剂蒸汽吸入,又不断地沿半径方向被甩出去,所以称这种型式的压缩机为离心式压缩机。压缩机工作时制冷剂蒸汽由吸汽口轴向进入吸汽室,并在吸汽室的导流作用引导由蒸发器(或中间冷却器)来的制冷剂蒸汽均匀地进入高速旋转的工作轮(工作轮也称叶轮,它是离心式制冷压缩机的重要部件,因为只有通过工作轮才能将能量传给气体)。气体在叶片作用下,一边跟着工作轮作高速旋转,一边由于受离心力的作用,在叶片槽道中作扩压流动,从而使气体的压力和速度都得到提高。由工作轮出来的气体再进入截面积逐渐扩大的扩压器(因为气体从工作轮流出时具有较高的流速,扩压器便把动能部分地转化为压力能,从而提高气体的压力)。气体流过扩压器时速度减小,而压力则进一步提高。经扩压器后气体汇集到蜗壳中,再经排气口引导至中间冷却器或冷凝器中。

水冷冷冻机组的工作原理如下:

■冷冻水侧:一般冷冻水回水温度为12℃,进入冷冻器与冷媒做热交换后,出水温度为7℃。冷冻水一般通过风机盘管、组合式空调机组或水冷精密空调机向 IT设备提供冷气。由于数据中心的制冷量大,要求温差小风量大且湿度需要控制,一般采用水冷精密空调机。

■冷却水侧:一般冷却水进水温度为30℃,进入冷凝器与冷媒做热交换

相关文档
最新文档