气流组织和通道封闭
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
环境补偿设计
机房制冷
高性能计算区域
根据现场调研及对用户需求的充分理解,该方案中高密度高性能计算区域配用APC提供的紧密耦合制冷(或称就近制冷)方式工作InRow RC机柜制冷单元,配合原厂气流遏制系统(RACS)附件,以每台InRow RC 绑定一台APC AR3100机柜的情况下,能够满足每机架(标准42U ,19英寸规格)30kW的热负荷能力。
对于本案联想超算系统所配置的全部刀片服务器而言,两套这样的制冷设备就可以完全满足全部超算配用刀片服务器的制冷需求。
这种新型模块化制冷方案在密闭机箱的侧面安装制冷单元,热空气通过制冷单元循环出冷空气给设备直接制冷。
这种新型模块化制冷方案兼顾了温度、湿度、运行速度、空气流量、气流方向和电能损耗等各个参数,提供了各种冷却方案,其中机柜液体冷却系统,通过水冷方式,对热点进行有效冷却,能够显著减少能量浪费。
机柜制冷单元是一种模块化的制冷解决方案,它可根据需求灵活安装在机柜的两侧,利用管道把冷冻水送到需要制冷的机柜,IT设备产生的热气流就会经过制冷单元进行循环,达到冷却的目的。
它确保了IT设备产生的热气流不会再从进风口回到IT设备内。
这种从热源控制热量的方式使制冷性能达到最优化,并且它还能通过适时调节和提高运行效率降低总体拥有成本(TCO)。
这种冷冻水单元只有标准IT机架宽度的一半(300mm),装备有变速风扇以提高可用性和节约能源。
常规精密空调制冷区域
为了对机房内开放区域内的机架空间进行有效的气流组织,我们推荐该部分
设备机柜采用冷热通道分割的方式进行排列,即服务器机架前门朝向相邻一列的机架前门排列,即前门对前门;后门对后门的排列方式,该区域内采用招标要求使用的静电地板下静压箱送风,热通道上方风管/风帽回风的气流组织形式,使用水冷式精密空调进行机房环境补偿(恒温、恒湿)。
该区域负责安置利旧使用的机房设备,链路及安全设备等,及非高密度机房设施。
气流组织和通道封闭
提高空调的制冷效率并节约能源只是数据中心管理的重要一部分,然而每机柜的热密度不停的增加则带给我们更多的挑战。
目前全球数据中心的每机柜的平均热密度大概为6.5KW,但是ASHRAE2预测在2014年数据中心平均每机柜所需的制冷量为37KW。
这种5倍的热密度的飞跃需要我们对数据中心不断的革新来解决。
冷热通道遏制策略让我们迈出了数据中心冷热空气隔离的第一步。
如果方法得当,在每个机柜内你可以处理10KW负载的冷却需求。
除此之外,你还不得不采取一些其它措施:引入补充冷却资源,行级制冷,吊顶制冷,地板风扇等等。
每个人都有他自己的冷却方案,但最终你都需要对冷热空气进行隔离。
冷热空气物理隔离(基线)
研究表明在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。
目前,传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。
这两种现象大大降低了空调制冷的效率。
其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。
冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。
如何解决这两种现象,
其实最简单,有效的方法就是将冷热空气物理隔离开。
冷热通道隔离示意
多年的研究和实验表明,良好的气流组织管理能够大大减少冷热空气相混合现象和空调冷送风的浪费现象。
Intel现在的数据中心的热密度也从单个机柜310WPSF增加到781WPSF(每机柜15kW增加到40kW以上).另外,Dell4和HP5的数据中心也正在使用冷池或热池技术。
使用冷池或热池技术,数据中心空调的制冷量只需满足设备的制冷量即可。
但是该技术也有一定的局限性,下文将详细讨论。
冷池和热池(热通道/冷通道)
热通道封闭或热池(HAC)是将热通道密闭起来并通过回风管将热回风传回数据中心空调系统(如图一所示)。
对比热池,冷池(CAC)是将冷通道密闭起来。
这两种技术都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率。
这两种方式的区别主要是可扩展性,散热管理和工作环境的适宜性。
CAC冷通道封闭示意
冷池的可扩展性主要是受地板下送风和如何将地板下冷风送入多个冷池的制约。
目前世界对该技术有着很多的误解,很多人认为只要当空调机的出风量能满足设备的散热风量即可。
但是他们忽略了高架地板下冷送风对于多个冷池的压力降和空间的限制。
相反的热池则是使用整个数据中心作为冷通道来解决这个问题,正因为这样扩大冷通道的空间。
这样热池相比于冷池有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。
最后,随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。
现在很多服务器的热风的出风温度可到达到55o C。
冷池的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将大大增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。
综上所述,虽然这两种方法都可以大大提高每机柜的热密度,但是当合理使用热池时,热池的效率应比冷池大大的有效可靠。
HAC热通道封闭示意
HAC热池工作原理(全密封和部分密闭)
通过以上的对比,我们可以发现热池比冷池有着更多的优点。
在这基础上,我们讲阐述两种不同的热池方案:全密闭热池和部分密闭热池。
全密闭热池是将所有热回风送回至空调系统。
烟囱机柜和刚性墙壁隔离热通道是其中的两个不同
的方案。
在部分密闭的热池中,密闭材料中的缝隙和空间将会大大浪费对设备散热冷送风的风量。
通常我们见到的部分密闭热池包括刚性或软性材料来密闭热通道。
使用全密闭热池可大大增加每机柜的热密度,但是又有建设预算和场地限制等等原因常常不能实现。
当我们不能实现一个全密闭的热池时,我们可用刚性或软性挡板等物讲热通道进行最大化的密闭,这样虽然不能像全密闭系统那样完全消除热回风回流和冷送风浪费的现象,但是我们将大量的热回风密闭起来了。
使用部分密闭热池的数据中心,数据中心的热点现象可能还会存在,消防设施的位置的也需要额外注意,但是我们可以比传统数据中心大大提高每机柜的热密度。
但是,要到达2014年每机柜37KW的热密度,这些是远远不够的。
高架地板下,静压箱冷封闭
如上图所示:使用高架地板下冷通道封闭,可以有效降低活动地板的结构耗散,提高出风效率,能够有效缓建较大面积下送风结构风量、风压不足。
在不增加额外的能源开销的前提下,提高单位热负载能力。
故,于本案中,结合用户需求,我们建议在以精密空调为冷源的方案实施过程中,对于非封闭机房空间(类似InRow RC/XDH/LCP+等)采用机房内热通道
封闭配合活动地板下冷封闭的方案处理高密度机架区域。
冷热通道遏制策略让我们迈出了数据中心冷热空气隔离的第一步。
如果方法得当,在每个机柜内你可以处理10KW负载的冷却需求。
除此之外,你还不得不采取一些其它措施:引入补充冷却资源,行级制冷,吊顶制冷,地板风扇等等。
每个人都有他自己的冷却方案,但最终你都需要对冷热空气进行隔离。
一旦你采用了物理隔离措施,你所能冷却的负载量就取决于机柜所能接受的气流大小,无论是来自空调单元还是来自服务器风扇。
如果你把机柜上装一个烟囱,将后端封闭,能够通过的气流也是有限的。
如果超过了这个限度,机柜就会变成一个“气球”。
因此,有很多气流是需要你从机柜后端强制将其送到前段的。
热通道冷通道简介
热通道冷通道(hot aisle/cold aisle)是数据中心的服务器机架和其他计算设备的布局设计。
热通道冷通道构造旨在通过管理气流来节约能源和降低冷却成本。
最简单的数据中心热通道冷通道设计是在交叉行排列服务器机架,让冷空气的进口朝一边,热空气的出口朝另一边。
机架前端组成的行称为冷通道。
通常情况下,冷通道面向空调的输出管道。
热空气输出的那一行称为热通道。
通常情况下,热通道面向空调的回风管道。
封闭系统可以用来隔离热通道(hot aisle)和冷通道(cold aisle),防止热空气和冷空气混合。
封闭系统像一个物理屏障一样,用乙烯塑料板或有机玻璃将热通道与冷通道分开。
目前,供应商提供通风间和其他商业选择,将封闭系统与可变风扇驱动(VFD)结合在一起,以防止冷空气和热空气混合。