数据中心被动式散热解决方案——通向绿色数据中心之路

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数据中心被动式散热解决方案——通向绿
色数据中心之路
数据中心被动式散热解决方案
通向绿色数据中心之路
文ICPI公司亚太区张愚
1前言
随着新一代计算机设备的计算能力和功
率能耗的大幅度提高,传统数据中心如何
增加每机柜的功率密度也变得越来越重要.
Intel的研究表明,同样的计算能力在2002
年时需要25个机柜和128kW的能耗(5.1kW
每机柜),到2008年时,只需一个机柜
21kW的能耗(21kW每机柜).对比之下,
我们节省了107kW的能耗,并且也大大节省
了数据中心的物理大小和结构.
这种大幅度的计算能力的提升得益于虚
拟计算,内存系统,多核CPU系统,CPU
速度和GPGPU技术的飞速发展.虚拟计
算大大提高了服务器的使用效率,从而增加
了单个机柜的发热密度.随着内存容量和速
度的飞速发展,最新的DRAM技术使得内
存的发热量也大大的提升.工程和科学研究
等应用大量使用图形浮点运算,GPGPU使
得显卡的发热量从25W提高到300W以上.
虽然服务器的功耗持续不断的提高,但是
性能和功耗比在不断的下降.从以上的例
子可以看出,数据中心空调系统能够高效
的对机柜进行冷却,将大大降低数据中心
的总能耗,在本质上我们可以真正拥有一
个绿色数据中心.
提高空调的制冷效率并节约能源只是数
据中心管理的重要一部分,然而每机柜的热
密度不停的增加则带给我们更多的挑战.目
前全球数据中心的每机柜的平均热密度大概为6.5kW,但是ASHRAE2预测在2014年
数据中心平均每机柜所需的制冷量为37kW, 这种5倍的热密度飞跃,需要我们对数据中
心进行不断的革新来解决.本文将对被动式
散热解决方案以及如何利用该技术实现绿色节能数据中心进行介绍.
2数据中心散热基础
首先,我们将对数据中心散热做一个基
本的研究.IT设备散热所需的风量可用下列
等式来表明:
m./H=2.9W÷△T
其中:m./H为机柜中的设备散热所需的
风量(立方米冷风/每小时);W=瓦特数(IT
设备的功耗);△T=IT设备的温差(设备回
风温度减去设备的进风温度)c
该等式表明了机柜的散热能力和高架送
风地板的送风能力有着密不可分的关系.由
于高架送风地板所送的冷风风量的不充足,
使机柜上部的IT设备进风风扇所造成的负压, 会将机柜后部热通道中的热空气抽入lT设备中,从而造成服务器过热的问题.
研究表明,在一个设计不合理的数据中
心内,60%的空调机冷送风由于气流组织的
不合理而被浪费.目前,传统的开放式热通
道结构数据中心面临着两大气流管理难题:
冷热空气相混合现象和空调冷送风的浪费现
象,这两种现象大大降低了空调制冷的效率.
其中,冷热空气相混合现象指的是由设备产
生的热空气和空调机的冷送风相混合,从而
提高了设备的进风温度;空调冷送风的浪费
现象则是指空调机的冷送风并未进入设备并
对设备进行冷却,而是直接回流到空调机的
现象.冷热空气混合现象也是导致数据中心
温度不一致的主要原因,并且这种现象也大ntelligentBuilding&CityInformation20123No.18421 ■OurEyes本期关注
大降低了数据中心空调的制冷效率和制冷能
力.如何解决这两种现象,最简单,有效的
方法就是将冷热空气物理隔离开.
3数据中心散热管理基线——隔离冷热
空气
Intel公司多年的研究和实验表明,良好
的气流组织管理,能够大大减少冷热空气相
混合现象和空调冷送风的浪费现象.lntel公
司现在的数据中心的热密度也从单个机柜
310WPSF增力口至781WPSF(每机柜15kW
增力口至140kW以上).另夕卜,Dell4币口HP5的
数据中心也正在使用冷池或热池技术.本文
将对这种被动型(通过物理手段,无任何有
源设备)对数据中心进行散热做出研究,并
对可行的方案做出比较,从而找出最佳的数
据中心散热解决方案.
目前,主动性数据中心散热也在行业内
普遍使用.但是其高昂的投资成本,复杂的
安装过程和维护等问题,我们将不在本文中
讨论
4数据中心散热解决方案
4.1方案1:冷池和热池
热通道封闭或热池(HAC)是将热通道
密闭起来并通过回风管将热回风传回数据中
心空调系统,如图1所示.对比热池,冷池
(CAC)是将冷通道密闭起来.这两种技术都
将空调的冷送风和热回风隔离开来,并使空
调机回风温度提高以此来提高空调的制冷效
率.这两种方式的区别主要是可扩展性,散
热管理和工作环境的适宜性.
冷池的可扩展性主要是受地板下送风和
如何将地板下冷风送入多个冷池的制约.目
前业界对该技术有着很多的误解,很多人认
为空调机的出风量能满足设备的散热风量即
可.他们忽略了高架地板下冷送风对于多个
冷池的压力影响和空间的限制.相反,热池
则是使用整个数据中心作为冷通道来解决这
个问题,正因为这样,扩大了冷通道的空间.
这样热池相比于冷池有着更多的空调冗余性
能,多出的热通道空间将会在空调系统出现
故障时,能够给予更多的宝贵维修时间.而
22智能建筑与城市信息2012年第3期总第184期且随着服务器设备的散热能力的提高,服务
器所需的散热风量将会大大的减少.现在很
多服务器的热风出风温度可以达到55℃.冷
池的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将大大增加数据中心
工作人员的舒适度和减少数据中心其他设备的使用寿命.综上所述,虽然这两种方法都
可以提高每台机柜的热密度,但是当合理使
用热池时,热池的效率比冷池更加有效可靠.
通过以上的对比,我们可以发现热池比冷
池有着更多的优点.另外在数据中心断电的
情况下,冷池数据中心的冷空气只存在于高架地板下和密闭冷通道中,相反热池数据中心中的冷空气存在于高架地板下和房间内的绝大多数地方,所以冷池数据中心的冷空气体积远远小于热空气的体积.当数据中心断电或空调出现问题时,冷池数据中心在几秒钟可以丧失所有的lT设备.所以在有可能的情况下,我们
应该尽量采用热池而不是冷池.使用部分密闭热池或冷池的数据中心的热点现象可能还会存在,其消防设施的位置也需要额外注意,但
相比传统数据中心则大大提高了每机柜的热密度.但是,要到达2014年每机柜37kW的热
密度,这些是远远不够的.
4.2方案2:垂直排风管机柜
除此之外,另一种方案是机柜级的冷热
风隔离系统,如图2所示.这种系统通常是
机柜的一个延伸部分,最常见的系统为机柜
垂直排风管系统,或称作烟囱机柜系统.垂
直排风管系统将密闭机柜内的热回风导入到天花板上方.对比冷池或热池,烟囱机柜系
统有着巨大的优点:首先,对于机柜而言,
烟囱机柜隔离冷热空气系统比冷池或热池系
统隔离整排机柜的冷热空气更为简单有效,
并且烟囱机柜在所有解决方案中是最简单的
全密闭系统.另外,烟囱机柜系统不和空调
系统相连,这样我们可以随着需求的增加来
任意增加机柜,从而达到更高的可扩展性.最
后,该系统和空调系统的独立性确保了数据中
心可以使用大型的空调系统来提高制冷效率和
节能.使用垂直排风管系统,冷空气可使用高
架地板(常用送风方法)送风或直接将冷风吹
入数据中心内部来送风,并且可以结合使用空
气节能器来起到更佳的节能效果,垂直排风管
系统在数据中心内的应用,如图3所示.
垂直排风管系统机柜的第一个挑战是必
须使用天花吊顶或者使用回风管,这样,数
据中心就需要额外的高度.第二个挑战是风
压差,我们必须确保机柜前后具有风压,使
得冷风可以进入机柜来对机柜散热.这种挑
战主要体现在机柜前部的送风风压压力,机
柜后部热回风的风压,机柜后部的理线等功
能区对风压的影响以及机柜顶部垂直排风管
的大小和长度.因此,必须在设计时特别注意,
确保该垂直排风管系统不会造成错误的压差.
我们可以通过控制机柜内部的空气流速
来控制机柜内部的空气压力,即使在没有任
何有源设备的情况下,利用自然压力差将更ntelligentBuilding&CityInformation20123No18423 __OurEyes本期关注
多的冷送风吸入机柜,并将热回风排放至天
花板上部.
5通向绿色数据中心之路——垂直排风
管机柜
5.1防止无效的冷送风浪费现象
Uptime(美国最大,最权威的数据中心
研究机构)曾对美国的大型数据中心做过一
次研究,美国平均每个数据中心冷送风风量
是实际需求的2.7倍,但是这么多的冷量仍
无法对大多数的数据中心进行冷却——很多数据中心存在着局部过热问题.实际上这么
多的冷量并没有进入机柜对lT设备进行降温, 而完全浪费掉.比如,我们通常所见高架地
板上的过线孔,在下走线的数据中心内,很
多过线孔是开在热通道或机柜底部,这些开
口在过线的同时也将空调的冷送风送入了热通道或机柜底部,从而绕开了设备的进风风扇.我们甚至不止一次的见到,由于水平走
线的原因,有些数据中心在数据中心高级地
板墙壁上开了很大的孔,该孔造成了大量空
调冷送风向数据中心外部泄露,这些被浪费
的冷送风带来高架地板静压箱送风风压的损失,从而导致冷送风不能送达关键的位置. Uptime通过实际测量很多数据中心,发
现大多数的数据中心都存在不正确的浪费现象,其浪费达到50%甚至更多.如果将这些
不正确的开孔密闭起来,可以大大提高数据
中心空调制冷的效果.如果我们把这50%的
冷量节省下来,该数据中心就有巨大的节能
效果.我们用表1对同一数据中心做一个比
24智能建筑与城市信息2012年第3期总第184期较,在一个30个机柜的低热密度的机房内,
如果我们将地板过线孔都密封起来,该数据
中心空调运行每小时节省262度电.
表1
开放过线孔数据中心密闭过线孔数据中心
机柜数量3O3O
机柜热密度4kW4kW
设备温度升高11℃11℃
每个机柜所需的风量662CFM662CFM
所需总风量1986019860
总送风量3972019860
数据中心温度升高5~C1O~C
所需CRAC数量4@80fONS2@40fons
所用电费5256kWh262.8kWh
5-2提高空调机热回风温度来提高空调制
冷性能
众所周知,空调的制冷效率和性能与空调
机热回风和冷送风的温差有关,如表2所示.
表2
空调机型号冷送风温度热回风温度制冷量LieberiFH20010吨21℃78lons
冷量空调机32℃15.5fons
15,5℃405cc20.7lONS
LieberlFH600C21℃23.0fons
32cc46.0ions30吨冷量空调机
4O.5℃61.3lons
对于绝大多数的数据中心而言,它们给
空调机的回风温度并不高,这些可能是因为数据中心的布局不好或者是热回风在回流空调机时被旁路(浪费的)冷送风降温,从而
导致数据中心的空调制冷效能未达到空调机的性能值.我们以LibertFH600C30吨的空
调机来看,大多冷热通道布局的数据中心温差为5.5℃(21℃回风温度,15.5~C送风温度), 这时空调机的制冷量仅为23吨,远远未达空调机额定正常制冷指标.如果我们将回风温度从21℃提高到40.5℃时,我们可以将空调额定制冷量翻倍,30吨冷量的空调机实际制冷效率为61.3吨.提高回风温度,不仅可以
少买空调机来节约投资费用,同时在数据中心实际运行中也节省了很多电费.
那么如何提高回风温度?答案很简单:
使用烟囱机柜.因为使用烟囱机柜,我们几
乎忽略设备热回风的路径.所有热空气在天花板上方,冷热空气不再混合,所以不存在
热空气在向空调机回流时被冷却的现象. 5.3提高空调机冷送风温度
采用冷热通道布局的数据中心,房间内
部的温度不一.由于冷热空气的相混合和避免机柜过热的问题,空调机通常的冷送风温度在11℃~13℃之间.
但是在烟囱机柜的数据中心中,机柜顶
部的垂直排风管将机柜内部的热回风导流至天花板上方,从而使机房内部再无冷热空气混合的现象.lT设备过热要求设备进风温
度不能超过25oC,这样,对于空调机而言,
24oC的冷送风完全能够冷却数据中心.
通过提高空调机的冷送风温度,可以提高冷冻水管的水温和冷水机组的制冷效率. 6结束语
PUE是全球用来衡量数据中心是否绿色
节能的重要一个技术指标.
美国高性能数据中心的PUE值大概为2.0 左右.这代表了数据中心每用2度电,只有1度电是被lT设备用掉,另外1度电是用在管理该数据中心.通过对数据中心管理用电使用情况分析,得出空调和气流管理大概占到40%左右的结论.
国内数据中心的PUE值比欧美发达国家要大,这也意味着同样的数据中心,我们使用了更多的能源.其中主要问题是管理人员对数据中心散热的不熟悉,不重视.主要问题体现在以下几个方面:
◆一味购买更多的,更大的空调机来对
数据中心制冷;
◆空调冷送风温度过低;
◆热回风回流空调机时,预冷却回风从
而降低了空调的制冷效率;
◆机房布局不合理,机柜冷热空气相混
合现象严重;
◆大量的错误地板开孔导致大量冷送风
被浪费.
机柜的传统概念正在被垂直排风管系统
慢慢改变,机柜不再是传统意义上只是用来安装设备的柜子而已,使用垂直排风管机柜
可将冷热空气彻底隔离,成为数据中心空调
系统密不可分的一个重要组成部分.
目前垂直排风管机柜在国际数据中心中
逐步应用.其中Intel在全球30个高热密度
数据中心广泛使用.lntel在实际应用中,每
机柜热密度高达32kW,在机房中无任何机
柜局部过热现象.在高效地对lT设备进行散
热之外,该机柜还通过提高空调回风温度和
提高空调机冷送风温度来大大节约数据中心
能源.高密度刀片机柜中垂直排风管系统机
柜应用,如图5所示.
一曩使用垂直排风管系统机柜,我们不仅可以
做到机柜的高密度应用,更可以做到以下节能
指标,从而建设一个绿色节能的数据中心:
◆数据中心关键制冷量下降74%;
◆冷冻水峰值用水量下降35%;
◆要求的水箱24小时储水量下降44%;
◆发电机重启所需的散热箱容量下降74%;
◆发电机,设施分配方面的HVAC负荷
下降65%;
◆三相部件连接要求下降78%;
◆室内HVAC设备的空间要求下降89%;
◆HVAC用水成本下降63%;
◆维护成本下降49%.回
ntelligentBuilding&CityInformation20123No.18425。

相关文档
最新文档