分析数据中心机房PUE值偏高问题及解决方案
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
分析数据中心机房PUE值偏高问题及解决方案
一、冷却成为数据中心最有价值计划
随着电子信息系统机房IT设备高度的集成化,其能源效率偏差以及机房散热量日渐趋高的现象开始受到了各界强烈关注。
据权威部门统计,我国高端服务器集中的通信行业耗电在2007年就已达到200亿度以上,信息产业俨然已经成为一个高能耗行业。
而服务器又是现在数据中心机房的核心,并且24小时运行。
以我国服务器保有量为200万台,按每台服务器平均功耗400瓦,每年的耗电总量约为80亿千瓦时。
根据中国电信节能技术蓝皮书所载,一般机房内芯片级主设备1 W 的功耗会导致总体耗电量达到2.68-2.84W,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。
由绿色网格组织(Green Grid)所提出的电力效率指标P U E 数值( Power Usage Effectiveness)是通过计算机房的总能耗与所有IT主设备能耗的比值而得出的。
故可估算上述机房的PUE值至少为2.68-2.84。
由此推算,我国数据中心机房消耗到空调冷却系统的能量至少为84亿千瓦时。
这也就意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗
1/4!
据称:Google公司的数据中心PUE年平均值可以达到1.21,中国Hp的新一代数据中心体验中心机房夏季PUE值可以达到1.6-1.7。
这一指标如何实现?
据美国电力转换公司APC最近的统计数据显示,数据中心的冷却成本大约占总能源账单的50%。
而国际组织Uptime Institute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷却(overcooling)差不多达到实际需求的2倍,目前多数机房存在过度冷却问题,相应的机房空调机组耗能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。
故此——优化数据中心冷却是排在第一位的最有价值的绿色计划!
二、数据中心高效节能冷却解决方案
由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其大约占到机房空调总负荷的80~97%;而在服务器、存储、网络等主设备中服务器的份额又大约占到设备散热量的80%。
所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。
从机房基础架构而言,国家标准《电子信息系统机房设计规范》GB 50174-2008规定:“当机柜或机架高度大于1.8m、设备热密度大、设备发热量大的电子信息系统机房宜采用下送风空调系统。
”而下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。
可是机房内空调冷却系统的送风按照流体力学伯努利原理所陈述的气流特性——“风速大的压力小”表明,受此特性制约的空气流会呈现靠近空调机组的通风地板出风量较小;又由于机房空调系统的靠近空调机组的前部通风地板已然输送出了一定的风量,后部的通风地板的送风量即会显现有所减少;而到了地板末端又
相反;又因为现有数据中心机房面积为了规模效应而愈建越大,一般安置的机房空调机组的方式是长距离的气流对吹,由此会出现在抗静电地板下产生风压相抵、通风地板送风量减小的现象。
从以上分析可见将抗静电活动地板作为空调系统送风静压箱进行设计时,其参数选定的误差可能会很大,这必将导致机房投入运行时主设备运行的安全性、可靠性及机房整体能耗表现得差强人意。
现代机房在设计空调冷却系统的送风气流时一般是参照设备发热量、机柜前后温差,以及地板高度和地板下有效断面积等因素,再按照空调机组送气量的30-40%来计算通风地板开口面积;并且规定用于机柜冷却的送风口必须能够提供大于机柜冷却所需的风量。
理想状态下机房内活动地板下的送风风压按照送风静压箱的设计模式姑且认定均匀风压为20Pa左右;机房通风地板送风风速按照国家标准要求取值3m/s;在实际应用中选用通风率(通风量)高达25%的通风地板,则当处于理想流体状态下的单个通风地板理论上可以供应的最大送风量约为
500立方英尺/分钟(849.45m3/h)或是其能提供约3.125kw的制冷量。
而现实运行中的机房通风地板最好的送风风速也就是1.5m/s;这就严重影响了空调系统的冷却效果,使机房空调、以致整个机房的能效偏低。
由于现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上;而原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求;并直接制约着高集成度IT设备在电子信息系统机房行业内的推广应用。
另外,现在IT行业服务器应用中普遍存在利用率低下的现象,从而引致现有的数据中心机房诸多能效问题。
故IT行业多是采用虚拟化技术来整合服务器和存储设备,以图机房PUE值得以降低。
但是如果IT部门对其服务器和存储进行了虚拟化,将IT电力消耗减少了以后,事实上很可能会产生更加不利的电力使用效率。
譬如将机房内部分服务器进行了虚拟化应用,虽然能够降低IT设备电力消耗大约20%,但如果不改变机房现有基础架构和使用面积,就无法避免机房出现过冷现象,也就无从降低机房空调系统能耗。
这会使得PUE值反而升高。
所以IT业界进而采用更直接的手段——测定服务器的利用效率,以图改善单纯采用PUE能效值进行机房能效评估所造成的误导。
另外还有的是采用SPEC芯片利用效率测试工具类型的软件来监测IT设备的数据处理流量/秒(或数据吞吐量/秒)与IT设备的功耗之比的技术。
随着IT虚拟化技术的大量应用,机房内势必会出现散热点趋向于关键的、主要运行的高热密度设备转移的现象。
导致机房内会出现少量高热密度的热岛区域,而其它非主要(辅助运行)设备区域的空调环境冷却需求度相对却较少的状态。
此时如果不改变机房现有基础架构和使用面积,并为了避免主设备宕机或使用寿命的减少而必须维持机房内的少量高热密度散热点微环境状况不超标,就无法避免地出现机房整体区域过度冷却的现象。
造成机房能耗及PUE能效值显现得奇高。
据Uptime学会统计目前全球85%以上数据中心机房存在过度制冷的问题。
针对机房过冷问题,在最近的调查显示数据中心机房实际提供的冷量平均是热负
荷所需冷却功能的2.6倍;即使这样机房出现过热部位的可能性还是达到了10%。
所对应的机房空调机组耗能也比设计工况增加能耗大约50%以上。
上面所陈述的机房实际状况说明现代空调系统按照整体区域平均冷却模式设计的机房空调环境如应用于高热密度或高散热量的负荷就无法避免地采用了过度冷却方式,导致机房能耗超高,能效值差强人意。
这也意味着机房环境空调冷却领域必须进行相应的按需冷却理论和应用方面的创新,以应对服务器等类型的机房主设备发展需求和社会对其能源利用效率的要求。
针对上述数据中心机房能效现状,我们提出具体的解决方案是:首先,通过对整个数据中心的红外温度热场分布以及气流流动情况,准确找出问题点以便用来改善数据中心的热效率。
帮助用户建立他们数据中心精确的模型,提出数据中心地板室温以及返回天花板静压模型的能力,在温度调节设置时从4个CRAC边界条件中选择设定,并通过CFD方法能够得到流动和热传递的耦合解,用以正确说明气体流动和热的交换;根据得到的PDU具体热负荷来提供数据中心的评估报告,包括对数据中心气流和热载荷的评估,当风量或气流的冷却能力不能胜任的时候对用户提出警告,并提供综合的冷却能源审计报告,包括CRAC、机架和地板气流性能的详细分析报告。
其次,在送回风不畅的机房区域施行将原先的通风地板更换为高通风率的通风地板,以辅助下送风机房空调的送风效果。
由于现有电子信息系统机房的气流组织现状十分复杂,导致主机房高热密度负荷不能及时被空调机组所冷却,所以须在主机房高负荷服务器机柜前方更换专用的风机通风地板;还可通过集约探测分布式群控风机地板,高效节能整体地解决机房服务器机柜冷却难题。
进而,再通过上述控制系统的上位机平台实行调整机房空调的温湿度设置参数,使之设定在20—25℃/40—55%Rh的合理范围内,让机房空调机组系统达到既满足机房设备冷却所需;又避免出现机房过度冷却的效果。
在应用以上步骤的前提下;再对机房空调系统采用联控运行的模式,以达到最优散热效果的情况以及避免出现空调机组功效抵消的状况;最终可以实现提高数据中心的能源利用效率、节约机房散热之冷却系统的电耗。
经优化改造后的机房其PUE值类比可达到Hp公司的动态智能散热解决方案(Dynamic Smart Cooling)之降低数据中心散热成本40%的同级别水平。
综合以上数据进行分析,可以得出结论:配用了红外探测控制可调速风机通风强化全钢防静电地板(每块地板承重均布负荷>1400kg)的机架至少可以满足4KW(即标准19''机柜能够满足输入功率4KVA,或者是能够装载下20个标称200W 的1U服务器)热负荷的散热;如配用特殊定制高风量风机的通风地板可满足最大25KW/机架热负荷的散热需求,足以解决诸如刀片服务器、或虚拟化应用等类型的高热密度负荷进入机房场地后的局部热点问题;进而可解决数据中心机房整体能耗飙升等系列难题。