数据中心制冷技术的应用及发展V2 1
数据中心制冷和节能技术
经济问题
建设成本高
建设一个新的数据中心需 要大量的资金投入,包括 购买服务器、网络设备、 冷却设备等。
运营成本高
数据中心需要耗费大量的 电力来维持运行,同时还 需要支付高额的冷却费用 和设备维护费用。
投资回报率低
由于数据中心的运营成本 高,导致投资回报率较低 ,这也是一个经济问题。
环境影响
要点一
为了提高冷却效率,一些改进的直接空调冷却系统采用了分 区冷却的概念,根据设备的位置和发热量来分配冷空气。此 外,一些系统还配备了温度传感器和控制器,以实现更精确 的冷却控制。
热管冷却
热管是一种高效的热传导器件,它可以将热量从一端传导 到另一端。在数据中心中,热管通常用于将服务器的热量 传导到散热器或冷凝器中。
03
数据中心制冷和节能技术的发展 趋势
高效化
提高制冷效率
采用高效制冷设备和技术,如冷凝器、 压缩机、冷却塔等,提高数据中心的制 冷效率。
VS
优化气流组织
通过合理设计机房布局和气流组织,减少 冷却死区和热量聚集,提高数据中心的冷 却效率。
绿色化
01
02
03
使用可再生能源
利用太阳能、风能等可再 生能源为数据中心提供电 力,降低碳排放。
云计算中心的制冷需求与大型数据中 心类似。它们需要专业的数据中心冷 却设备来满足服务器的散热需求。这 些设备通常使用液体冷却、热管技术 等高效冷却技术来移除服务器产生的 热量。此外,云计算中心也使用高效 的服务器硬件和能源管理软件来降低 电力消耗。
云计算中心也积极采用各种节能技术 。例如,它们使用动态电压调节( DVR)技术来降低服务器的电压,从 而减少电力消耗。此外,云计算中心 也使用高效的服务器硬件、绿色能源 技术以及能源管理软件来降低电力消 耗。
IDC数据中心空调制冷
通电前检查
确认电源线路连接正确,无短 路或断路现象。
功能测试
分别测试空调的制冷、制热、 送风等功能,确保各项功能正 常运行。
验收记录
详细记录调试过程中的各项数 据和结果,作为验收依据。
04
空调系统运行维护与保养
定期检查项目清单
检查冷却水系统压 力、温度、流量等 参数
检查空气处理机组 过滤器清洁度,及 时更换
冷却塔/冷却水系统
用于冷却制冷主机产生的热量,通过水循环 将热量带走。
控制系统
监测室内环境参数和制冷系统运行状态,实 现自动调节和远程控制。
制冷方式分类与特点
风冷式制冷
通过空气冷却制冷主机,适用于小型数据中心或室外环境。 具有结构简单、维护方便等优点,但制冷效率相对较低。
水冷式制冷
通过水冷却制冷主机,适用于中大型数据中心。具有制冷效 率高、噪音低等优点,但需要配备冷却塔或冷却水系统。
将数据中心产生的余热回收利用, 用于供暖、热水等,提高能源利用 效率。
未来发展趋势预测
智能化发展
模块化设计
结合人工智能、大数据等技术,实现制冷系 统的自适应调节和智能运维。
制冷设备将趋向模块化设计,方便快速部署 和扩展。
高效能、低能耗
多元化能源利用
随着技术进步和环保要求提高,未来制冷系 统将更加高效、节能。
探讨智能化监控技术在提高空调系统性能、降低能耗等方面的应用前景和挑战。
06
空调制冷新技术发展趋势
新型制冷技术介绍及优缺点分析
自然冷却技术
利用自然环境条件(如低温空气 或水)进行数据中心的冷却。优 点是能效高、环保,缺点是受地
理位置和气候条件限制。
液冷技术
使用液体(如矿物油、氟化液等) 作为冷却介质,直接或间接与IT 设备接触,带走热量。优点是散 热效率高、噪音低,缺点是系统
数据中心常用的制冷项目解决方案V111
数据中心常用的制冷项目解决方案V111随着云计算和大数据等技术的快速发展,数据中心的数量和规模也在不断扩大。
在数据中心的运营中,制冷系统是非常重要的一部分,它不仅关系到设备的稳定运行,还直接影响能源消耗和成本。
为了满足数据中心的制冷需求,我们提出了一种常用的制冷项目解决方案V111。
关键词:数据中心、制冷项目、解决方案、V111在数据中心的运营中,制冷系统是不可或缺的一部分。
传统的制冷系统通常采用风冷、水冷和间接液体冷却等方式,但是这些方式在冷却效率、能源消耗和成本等方面存在一些问题。
为了解决这些问题,我们提出了一种常用的制冷项目解决方案V111。
V111制冷项目解决方案采用了先进的间接液体冷却技术,可以将数据中心的PUE值降低到1.05以下,从而大大提高冷却效率和能源利用率。
同时,该方案还采用了智能控制系统和节能模式,可以根据实际需要自动调节冷却流量和温度,从而进一步降低能源消耗和成本。
V111制冷项目解决方案具有以下优点:1、冷却效率高:采用间接液体冷却技术,冷却效率比传统风冷、水冷方式更高。
2、能源消耗低:智能控制系统和节能模式可以自动调节冷却流量和温度,从而降低能源消耗和成本。
3、维护方便:采用模块化设计,便于安装和维护。
4、环境适应性强:可以在不同的环境和气候条件下运行,适应性强。
5、可扩展性好:可以灵活扩展制冷容量,满足未来业务发展的需求。
在实际应用中,V111制冷项目解决方案已经得到了广泛的应用。
例如,某大型互联网公司的数据中心采用了该方案,将PUE值降低到了1.05以下,每年可以节省大量的能源成本。
该方案还具有灵活扩展的特点,可以满足未来业务发展的需求。
总之,V111制冷项目解决方案是一种先进、可靠、经济的数据中心制冷方案,具有广泛的应用前景。
随着云计算和大数据等技术的不断发展,数据中心的规模和数量将会不断扩大,V111制冷项目解决方案将会成为未来数据中心制冷领域的重要发展方向。
数据中心的制冷与散热
数据中心的制冷与散热在当今数字化时代,数据中心已成为支撑企业运营、互联网服务和科技创新的关键基础设施。
然而,随着数据中心的规模不断扩大,其产生的热量也日益惊人。
高效的制冷与散热系统对于确保数据中心的稳定运行、延长设备寿命以及降低能耗至关重要。
数据中心的设备,如服务器、存储设备和网络交换机等,在运行过程中会不断产生大量的热量。
如果这些热量不能及时有效地散发出去,设备的温度将迅速升高,从而导致性能下降、故障甚至损坏。
此外,高温环境还会缩短电子元件的使用寿命,增加维修和更换成本。
因此,制冷与散热是数据中心运营中必须要解决的重要问题。
目前,数据中心常见的制冷方式主要包括风冷和液冷两种。
风冷是最为常见和传统的制冷方式。
它通过空调系统将冷空气吹入数据中心,然后冷空气吸收设备产生的热量后变成热空气,再被排出数据中心。
风冷系统的优点是安装和维护相对简单,成本较低。
但是,随着数据中心的密度不断增加,风冷系统在散热效率方面逐渐显得力不从心。
因为空气的热导率较低,对于高密度的服务器机架,风冷很难实现均匀和高效的散热。
液冷则是一种更为先进和高效的制冷方式。
液冷系统主要包括直接液冷和间接液冷两种类型。
直接液冷是将冷却液直接与服务器的发热部件接触,从而迅速带走热量。
间接液冷则是通过热交换器将冷却液与发热部件隔开,冷却液吸收热量后通过外部的冷却装置进行散热。
液冷的优势在于其散热效率极高,能够有效地应对高功率密度的服务器。
此外,由于冷却液的热导率远高于空气,所以液冷系统可以实现更均匀的散热,从而提高设备的稳定性和可靠性。
在散热技术方面,热交换技术是一个重要的手段。
热交换器可以将数据中心内部的热量传递到外部环境中,而不需要直接将热空气排放到室外。
这种方式可以在一定程度上降低制冷系统的能耗。
另外,自然冷却技术也越来越受到关注。
在适宜的气候条件下,利用室外的低温空气来冷却数据中心,可以大大减少机械制冷的使用,从而降低能源消耗。
为了实现高效的制冷与散热,数据中心的布局和气流组织也非常关键。
制冷技术的国内外发展趋势与应用分析
制冷技术的国内外发展趋势与应用分析随着现代工业的普及和社会的发展,各种电子设备的使用越来越广泛。
同时,一些特殊的行业,如航天、地质勘探等行业也对高效、稳定、可靠的制冷系统越来越有需求。
因此,制冷技术显得越来越重要,各个国家都在致力于相关的技术研究和应用。
本文将着重就制冷技术的国内外发展趋势和应用做一些分析和总结。
一、国外制冷技术的发展趋势在国外各个行业中,制冷技术都得到了广泛的应用。
进入21世纪以来,制冷技术逐渐往节能、环保领域发展。
1. 制冷效率提高先进的制冷技术不仅能够使冷却效果更好,同时也能够提高制冷效率。
美国公司Ingersoll Rand就研发出了随着需求调整工作量的变频空调。
它的制冷系统能够自动调整发生器和制冷机的工作中,使其始终处于最佳状态,达到更高的制冷效率。
近年来,各个国家也越来越注重环保和节能方面的研究,制冷系统的效率也已经成为了研究的重点之一。
2. 技术整合不同的制冷技术在运用上往往会出现冲突,一些国外专家就提出了技术整合这一观点,通过整合,可以解决冲突问题,使不同技术在某些领域共存。
例如,一个针对太阳能散热领域的项目考虑采用多种制冷系统整合使用,例如地源热泵、空气源热泵和太阳能光伏板,以获得更佳的结果。
3. 虚拟现实技术的应用虚拟现实(VR)技术的发展也将会给制冷技术带来不小的推动。
通过VR技术,人们可以在模拟的环境中对制冷系统进行测试、维护。
法国一家公司研发出一种利用VR技术来模拟制冷技术维修的应用程序,包括一系列制冷系统的情境模拟,帮助技术人员更好的了解制冷系统的维护和运作原理。
二、国内制冷技术的发展情况中国作为世界上最大的制造国之一,制冷技术的应用也越来越广泛。
同时,随着人们对高效、节能、环保的需求的增加,制冷技术的应用也受到了更多的重视。
下面简单分析一下国内制冷技术发展的现状。
1.市场需求不断增加由于用于制冷的设备种类相对固定,市场竞争机会也相对固定。
但在消费正常和科技进步的情况下,市场需求不断增加。
制冷技术的应用领域及未来发展趋势
制冷技术的应用领域及未来发展趋势近几年,随着人们生活水平的提高,对于温度控制的要求也越来越高。
制冷技术的应用领域也随之越来越广泛,从家用冰箱到大型冷库、医学冷藏柜、炼油装置,涉及到的领域非常广泛。
本文将从制冷技术的应用领域入手,探讨未来的发展趋势。
1. 家用制冷领域家用制冷是制冷技术最早的应用领域之一,而冰箱则是家用制冷的代表。
冰箱可以根据不同需求分为单门、双门、三门等不同款式和尺寸。
目前,一些高端冰箱还配备了各种智能技术,如语音识别、人脸识别等,提高了用户的使用体验。
未来,随着家庭电器智能化的不断发展,智能冰箱的市场份额将逐步扩大。
2. 商业制冷领域商业制冷领域包括超市、酒店、餐饮、医药等多种场所。
其中,超市及便利店是商业制冷的主要应用场所。
冷库是超市制冷的最重要装备之一。
据统计,全球冷库的容量正在不断增加,预计未来几年,其市场规模将进一步扩大。
同时,商业制冷领域也开始向绿色环保方向发展,例如使用天然制冷剂,减少对环境的污染。
3. 交通制冷领域交通制冷主要应用于飞机、汽车和火车等交通工具中。
在旅游和航空等行业中,制冷系统的效率和准确性是一个非常重要的指标。
目前,交通制冷系统越来越受到关注,许多机构正在开发新的制冷技术,以提高制冷系统的性能和效率。
随着交通工具数量的不断增加,交通制冷市场还有很大的发展空间。
4. 医疗制冷领域医疗制冷主要应用于冰箱、冷藏柜、冷冻柜等用于存放疫苗、血浆和其他药物。
这些冷藏器具必须很准确地控制温度和湿度,以确保药物的安全和有效性。
随着医药行业的不断发展和生物技术的进步,医疗制冷领域市场也将继续增长。
5. 制冷领域的未来发展趋势在未来几年,制冷技术将面临新的挑战和机遇。
其中,绿色制冷是未来发展的重要方向之一。
由于制冷系统对环境的污染问题,国际上出台了一系列环保法规,要求制冷技术必须更加环保和节能。
同时,制冷行业还将加大对新材料和新技术的研发投入。
例如,磁制冷(magnetic refrigeration)是一种新型制冷技术,其具有无噪音、污染少、寿命长等特点,目前正在逐步应用于商业制冷、家用冷藏等领域。
数据中心冷却系统
间接接触式冷却通常采用空气或其他气体作 为冷却介质,将服务器等设备的热量通过热 交换器传递给冷却介质,然后通过空气或气 体循环将热量排出数据中心。同时,间接接 触式冷却也可以采用水冷或氟利昂等液体作 为冷却介质,通过热交换器将设备热量传递 给液体冷却介质,然后通过水泵或制冷剂循
环将热量排出数据中心。
提高设备性能
良好的冷却系统可以保证数据中心内的设备在适宜的温度下运行,这有 助于提高设备的性能和稳定性,从而提升整个数据中心的运行效率。
03
降低能耗
高效的冷却系统能够有效地降低数据中心的能耗,这对于节能减排、降
低运营成本具有重要意义。
数据中心冷却系统的历史与发展
历史
数据中心冷却系统的发展可以追溯到上世纪90年代,当时的 数据中心主要以大型机为主,需要大量的冷却散热。随着计 算机技术的发展,数据中心的规模不断扩大,对冷却系统的 需求也不断增加。
数据中心冷却系统
汇报人: 日期:
目录
• 数据中心冷却系统概述 • 数据中心冷却系统的种类与技术 • 数据中心冷却系统的设计与优化 • 数据中心冷却系统的挑战与解决方案 • 数据中心冷却系统的发展趋势与未来展望
01
数据中心冷却系统概述
Chapter
定义与特点
定义
数据中心冷却系统是指用于降低数据中心内部设备 温度的专门系统,它通常由一系列冷却设备和部件 组成,如制冷设备、冷却塔、水泵、管道等。
智能化与自动化在冷却系统中的应用
智能传感器与控制器
在冷却系统中集成智能传感器和控制器,实现对数据中心温度、湿度的实时监 测和控制。
自动化调度与优化
通过自动化技术实现对冷却系统的实时调度和优化,以适应数据中心不同负载 和环境条件。
数据中心的冷却技术
数据中心的冷却技术随着信息技术的不断发展和数据存储需求的增加,数据中心成为现代社会中不可或缺的基础设施。
然而,数据中心的高能耗和热量排放问题也日益凸显。
为了降低能源消耗和环境负担,数据中心冷却技术变得尤为重要。
本文将介绍几种常见的数据中心冷却技术,并探讨其特点、优势以及未来发展方向。
传统冷却技术1. 空气冷却系统空气冷却系统是目前数据中心中最常用的技术之一。
它通过排风系统将热空气引导到空调设备,并通过冷却机组中的冷凝器将热量转移到气流中,最后将冷空气送回机房。
空气冷却系统的优点包括成本较低、维护简单、易于控制温度等。
然而,它也存在一些缺点,如能耗较高、冷却效果受外界温度和湿度影响等。
2. 水冷却系统水冷却系统是另一种常见的数据中心冷却技术。
相较于空气冷却系统,水冷却系统能提供更高的冷却效率和稳定性。
它通过将冷却剂引入设备内部,利用水的高热传导性将热量带走,并通过专用设备将热水处理后再循环利用。
水冷却系统的优点在于能耗低、效率高、可控性强,但也需要较高的设备投资和维护成本。
创新冷却技术1. 热回收技术热回收技术是一种可持续发展的冷却方案。
它通过将数据中心产生的热量用于供热或其他用途,实现能源的再利用。
热回收技术可以通过热交换器将数据中心的余热转移到其他设备或周边建筑物中,以减少能源浪费,并满足供热需求。
这种技术不仅能够降低数据中心的能耗,还能为周边环境提供可持续的能源。
2. 直接液态冷却技术直接液态冷却技术是一种创新型的冷却解决方案。
它通过将冷却介质直接引入数据中心设备,以最大程度地降低冷却过程中的能源损耗。
这种技术不需要经过空气传导热量,能够快速而有效地将热量带走。
相较于传统冷却系统,直接液态冷却技术能够显著降低能耗,并为数据中心提供更为稳定的温度环境。
未来展望随着科技的不断进步和数据中心的快速发展,冷却技术也将不断创新和演进。
未来,我们可以预见以下几个方向的发展:1. 绿色冷却技术:随着环保意识的增强,数据中心冷却技术将更加注重能源效率和环境友好性。
数据中心间接蒸发自然冷却技术原理、结构、分类和应用
数据中心间接蒸发自然冷却技术原理、结构、分类和应用数据中心制冷技术历经风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等时期,节能技术逐步发展。
目前大型数据中心应用的间接蒸发自然冷却方式,与传统新风自然冷却及冷冻水冷却系统相比,具有室内空气不受室外环境空气质量的影响、喷淋加湿空气不会影响室内湿度、过滤器维护成本低、耗水量少、节能水平高等特点和优势。
(仅为示意图,不对应文中任何产品)一:蒸发冷却技术分类数据中心常用节能方式:蒸发冷却技术分类:二:间接蒸发自然冷却技术原理和结构1、间接蒸发冷却技术原理间接蒸发冷却作为蒸发冷却的一种独特等湿降温方式,其基本原理是:利用直接蒸发冷却后的空气(称为二次空气)和水,通过换热器与室外空气进行热交换,实现新风(称为一次空气)冷却。
由于空气不与水直接接触,其含湿量保持不变,一次空气变化过程是一个等湿降温过程。
间接蒸发冷却原理示意图2、间接蒸发冷却机组结构间接蒸发系统由喷淋装置、换热芯体、室内风机、室外风机、机械制冷补充装置、控制系统等组成。
三:间接蒸发自然冷却系统运行模式蒸发冷却基于干湿球温差制冷,注重环境干球温度和湿球温度,主要存在三种工作模式:1. 间接风风换热自然冷却模式(室外<18℃)在冬季室外温度低的情况下,上部室外侧气流进入机组。
首先进行空气过滤。
因为室外空气温度低,无需绝热蒸发所产生的制冷量足够在换热器内冷却服务器机房回风。
经过换热器后,吸收热量的室外空气回到上部,由室外侧EC 风机墙排放到室外。
在机组下部分,机房内部的热回风首先经过过滤,在热交换器中和室外空气进行热交换。
冷却后的机房回风,经过室内侧EC 风机墙被送入服务器机房。
干模式运行示意图2. 间接蒸发自然冷却模式(干球温度>18℃,湿球温度<18℃)在春秋季室外温度较低的情况下,上部室外侧气流进入机组。
首先进行空气过滤。
因为室外空气温度不够低,需要通过高压微雾喷淋进行绝热蒸发制冷的来补充制冷量。
数据中心制冷系统发展趋势
数据中心制冷系统发展趋势在当今数字化的时代,数据中心已成为支撑全球经济和社会运转的关键基础设施。
随着数据处理需求的不断增长,数据中心的规模和能耗也在急剧增加。
其中,制冷系统作为保障数据中心稳定运行的重要组成部分,其性能和效率直接影响着数据中心的可靠性和运营成本。
因此,了解数据中心制冷系统的发展趋势对于行业的可持续发展至关重要。
过去,数据中心的制冷系统主要采用传统的风冷和水冷技术。
风冷系统通过风扇将冷空气吹入机柜,带走服务器产生的热量;水冷系统则利用水的高比热容将热量带走。
然而,随着数据中心的密度不断提高,这些传统的制冷方式逐渐暴露出一些局限性。
首先,风冷系统的制冷效率相对较低,在应对高热密度的服务器时往往力不从心。
而且,大量风扇的运行会产生较大的噪音和能耗。
水冷系统虽然制冷效率较高,但存在漏水的风险,且系统的复杂性和维护成本也较高。
为了克服这些问题,新型的制冷技术不断涌现。
其中,液冷技术成为了近年来的研究热点。
液冷技术主要包括浸没式液冷和冷板式液冷两种方式。
浸没式液冷是将服务器直接浸泡在冷却液中,通过冷却液的循环流动带走热量。
这种方式具有极高的散热效率,能够有效地应对超高热密度的服务器,并且大大降低了噪音。
然而,浸没式液冷对冷却液的性能要求较高,且需要对服务器进行特殊的设计和改造,前期投入较大。
冷板式液冷则是在服务器的发热部件上安装冷板,冷却液在冷板内部循环流动,从而将热量带走。
相比浸没式液冷,冷板式液冷的改造难度较小,成本相对较低,更容易在现有数据中心中推广应用。
除了液冷技术,自然冷却技术也在数据中心制冷系统中得到了越来越广泛的应用。
自然冷却技术利用外界的自然冷源,如冷空气、冷水等,来降低数据中心的制冷能耗。
例如,在冬季或早晚温度较低的时候,直接引入室外冷空气进行制冷;或者利用附近的河流、湖泊等水源的低温水进行冷却。
此外,人工智能和机器学习技术也开始在数据中心制冷系统中发挥重要作用。
通过对数据中心的运行数据进行实时监测和分析,智能控制系统可以根据服务器的负载、环境温度等因素动态调整制冷系统的运行参数,实现精细化的管理和节能优化。
数据中心机柜冷却技术
数据中心机柜冷却技术随着数字化和网络化时代的发展,数据中心的需求日益增多,而数据中心机柜的冷却技术则成为了一个重要的问题。
良好的冷却技术可以确保服务器和设备的正常运行,同时降低耗电量,提高能效。
因此,本文将介绍几种数据中心机柜冷却技术以及它们的特点和应用。
一、热交换器冷却技术热交换器冷却技术是目前应用较为广泛的一种技术。
它通过利用冷却液与热量产生源进行热交换,达到冷却的效果。
这种技术可以有效地控制温度,保持数据中心的稳定运行。
同时,它可以减少能源的消耗,并提高能源的利用效率。
热交换器冷却技术具有可靠性高、维护成本低的特点,在数据中心中得到了广泛的应用。
二、风冷却技术风冷却技术是一种传统且常见的冷却方式。
它通过利用空气进行传热,将热量带走,实现冷却的效果。
风冷却技术具有成本低、易于实施的优势。
然而,它也存在一些问题,比如过热点的问题。
在数据中心中,由于机柜的密集布置,某些区域可能形成热量聚集的过热点,从而影响冷却效果。
因此,在应用风冷却技术时,需要合理规划机柜的布局,以提高冷却效果。
三、液冷却技术液冷却技术是一种高效的冷却方式。
它将液体引入机柜内部,通过直接接触加热元件的方式进行冷却。
相比于风冷却技术,液冷却技术可以实现更高效的散热,同时还可以减少噪音和能源消耗。
然而,液冷却技术在实施过程中也存在一些挑战,比如技术要求高、维护成本高等问题。
因此,在应用液冷却技术时,需要根据实际情况进行评估和选择。
四、热回收技术热回收技术是一种能源利用的方式。
它通过将机柜产生的热量进行回收再利用,用于供暖、热水或其他用途。
热回收技术可以提高能源的利用效率,减少能源的浪费。
在数据中心中,机柜产生的大量热量如果能够得到合理的回收利用,将有效降低数据中心的能源消耗,实现可持续发展。
综上所述,数据中心机柜冷却技术是确保数据中心正常运行的关键因素之一。
热交换器冷却技术、风冷却技术、液冷却技术和热回收技术都是常见的冷却技术。
根据实际情况和需求,选择适合的冷却技术对于提高数据中心的能效、降低能源消耗具有重要意义。
我国数据中心间接蒸发冷却空调技术的应用现状与发展趋势
3.我国数据中心间接蒸发冷却空调技术的应用案例
水侧间接蒸发冷却技术应用案例 (1)乌鲁木齐开发区某联通数据中心
乌鲁木齐市开发区某核心机房 建设地点:乌鲁木齐市开发区 地上5层建筑,总建筑面积10738.2㎡,建筑高度23.3m 单层建筑面积均为2147.64 ㎡、层高4.8m
最大可布置1500+架机柜 1层主要为高低压配电室、电力电池室及预留大机房
小型数据中心集成化、产品化
蒸发冷却技术顺应了当前数据中心模块化、集成化、产品化的发展趋势,工厂的预制化,实现快速交付,满足数据 中心快速建设的需求。目前已在数据中心得到广泛应用,也会成为未来“新基建”数据中心空调系统的发展方向之一。
录目
CONTENTS
01
数据中心发展背景
02
间接蒸发冷却空调技术在数据中心的应用形式
风侧间接蒸发冷却空调系统原理
间接蒸发冷 却换热芯体
产出空气(一次空气/室内)与工作空气(二次空气/室外)间接接触,仅进行 显热交换,不进行质交换
间接蒸发冷却极限为工作空气(二次空气/室外)的湿球温度 一次空气(室内循环):等湿冷却 二次空气(室外循环):增焓加湿
2.间接蒸发冷却空调技术在数据中心的应用
3.我国数据中心间接蒸发冷却空调技术的应用案例
风侧间接蒸发冷却技术应用案例 (2)腾讯贵安山洞某数据中心
腾讯贵安某数据中心是国内首个将核心设备部署在 山洞隧道内的数据中心,未来将被用于存储腾讯最核心 的大数据 。
作为腾讯新基建重点项目之一,贵安数据中心以安 全和环保著称。
在安全方面,贵安数据中心利用山体与外界实现天 然物理隔离,可以在内部设备不间断运行的情况下抵御 短时超高压冲击,确保隧道内数据全时防护与可用,是 国内第一个特高防护等级商用数据中心。
浅谈大型数据中心空调冷却系统的应用和节能技术
浅谈大型数据中心空调冷却系统的应用和节能技术互联网、大数据等技术的蓬勃发展使其重要基础设施之一的数据中心体现出规模大,能耗高,可用度和可维护性要求也极高的特点。
大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。
本文分析了大型数据中心空调冷却系统的特点、设置方式和节能技术措施,为今后数据中心或智能化控制中心项目建设提供制冷系统的设计依据和技术参考。
标签:空调制冷系统;节能技术;水蓄冷我国已大步迈入数字化、信息化、智能化的时代,产业和结构升级调整催生了新兴的技术和产业,工程建设领域也紧跟时代步伐不断推陈出新,满足精益化、节能化、环保化的大众需求。
数据中心设备产热量高,空调制冷系统负担的冷负荷大,运行电耗成本高,对安全性和系统稳定性的要求等因素都需要建设、设计、使用等单位的高度重视。
一、大型数据中心空调冷却系统的特点大型数据中心包含IT机房(含空调用户设施),空调机房制冷系统,电力机房供电系统三大基础性资源[1]。
数据中心占地面积大,全生命周期内空调系统制冷能耗成本占比高;数据中心全年不间断运行,对制冷系统和电力供应系统设置提出更高要求;且建设阶段要兼顾空调冷却系统的运行监控和维修保养,集中管理,及时反馈,便于操作,缩短故障设备恢复使用时间,甚至智能预测和诊断。
分散式空调能效低,故大型数据中心一般多采用集中式水冷空调系统来降低能耗,数据中心制冷负荷大,空调冷却系统需设多台大冷量冷水机组才能满足使用,依据《数据中心设计规范》GB50174-2017的要求,数据中心按重要程度可划分A级、B级和C级,A级对设备备用系数要求最高,按制冷主机和水泵、冷却塔、IT机房专用空调为N+x冗余,配套冷冻和冷却水管为双供双回,环形布置,保证数据中心制冷系统的高可用性和可维护性。
二、大型数据中心空调冷却系统的设置(一)空调机房制冷系统的两种连接方式利用水冷式空调冷却系统为数据中心散热,为其提供符合运行要求的环境。
绿色高能效数据中心散热冷却技术研究现状及发展趋势
3、智能化管理助力数据中心发 展
智能化管理是未来数据中心发展的重要趋势。通过采用智能化管理系统和技 术手段可以实现对数据中心的全面监控和管理从而提高了数据中心的可靠性和稳 定性同时还可以提高数据中心的效率。智能化管理不仅可以提高数据中心的运营 效率还可以为未来的发展提供更多机会。
总之随着科技的不断进步和社会需求的不断变化数据中心将会继续发挥重要 作用并在未来发展中不断创新和完善。
目前,数据中心的散热冷却技术主要分为五类:空调制冷、新风制冷、间接 液冷、直接单相液冷、直接两相液冷。
空调制冷技术是最为传统和成熟的散热方式,通过空调对空气进行冷却,然 后再通过空气对设备进行散热。这种技术的优点是简单易行,成本较低,但能源 消耗较大。新风制冷技术则是利用自然界的冷空气,通过换热器将数据中心的热 量带走,具有节能环保的优点。但这种方法受地理位置和气候影响较大。
5、生命中往往有很多无言以对的时刻,不是所有的是非都能辩明,不是所 有的纠葛都能理清,有时沉默就是我们最好的回答和诠释。早安!
谢谢观看
二、数据中心发展趋势
1、云计算推动数据中心发展
云计算是未来信息技术发展的重要方向,它可以将计算、存储和应用程序等 服务通过互联网提供给用户。这种模式的出现将使得数据中心的规模进一步扩大, 同时也将推动数据中心技术的不断创新和发展。
2、绿色数据中心成为未来发展 方向
面对日益严重的能源危机和环境污染问题,绿色数据中心将成为未来发展的 重要方向。绿色数据中心可以通过采用高效节能技术和绿色建筑材料等措施来降 低能耗和减少环境污染。同时还可以通过合理布局和优化设计等手段来提高能源 利用效率。因此绿色数据中心将会成为未来发展的重要趋势。
2、数据中心能耗问题日益突出
数据中心作为高能耗行业,其能耗问题一直备受。据权威机构统计,数据中 心的能耗已经占据了全球总电量的很大一部分。因此,如何降低数据中心的能耗, 提高能源利用效率,已成为当前亟待解决的问题。
数据中心制冷技术
水冷系统工作原理
冷却水循环
01
通过水泵驱动冷却水在系统中循环,将热量从服务器等IT设备
中带走。
热交换
02
冷却水在热交换器中与IT设备产生的热量进行交换,将热量传
递给冷却水。冷却塔散热 Nhomakorabea03
冷却水经过冷却塔时,通过蒸发散热原理将热量释放到大气中
。
水冷系统设计与选型
系统设计
根据数据中心规模、设备布局、散热需求等因素,设计合理的冷 却水循环系统和热交换系统。
结构简单
风冷系统结构相对简单,易于安装和 维护。
初始投资低
相对于液冷系统,风冷系统的初始投 资较低。
风冷系统优缺点分析
• 适应性强:风冷系统可以适应各种气候条件和数 据中心规模。
风冷系统优缺点分析
能耗较高
由于空气的比热容较小,风冷系统需要消耗更多的能量才能达到 相同的制冷效果。
冷却效率受限
在高温、高湿地区,风冷系统的冷却效率可能会受到限制。
利用自然冷源(如外界冷空气、 地下水等)对数据中心进行冷却 ,降低制冷系统能耗。
THANKS
感谢观看
02
精密空调制冷技术
精密空调工作原理
制冷循环
精密空调通过压缩机、冷凝器、 膨胀阀和蒸发器等组件构成制冷 循环,实现室内热量的有效转移
和排除。
空气处理
空气经过过滤、降温或升温、加湿 或除湿等处理过程,以达到数据中 心对温湿度和洁净度的要求。
智能控制
采用先进的控制系统,实时监测室 内环境参数,并自动调节空调运行 ,确保数据中心环境稳定。
精密空调选型与设计
负荷计算
根据数据中心的设备功率 、人员密度、建筑结构等 因素,精确计算冷负荷, 为空调选型提供依据。
数据中心冷却系统
数据中心冷却系统随着科技的不断发展和信息技术的普及,数据中心扮演着越来越重要的角色。
然而,数据中心的操作和维护也带来了巨大的能源消耗和热量释放问题。
为了解决这一挑战,数据中心冷却系统应运而生。
本文将介绍数据中心冷却系统的重要性和工作原理,并探讨一些常见的冷却技术。
一、数据中心冷却系统的重要性数据中心是存储、管理和处理大量数据的设施,不仅需要稳定的供电,还需要保持合适的温度和湿度。
数据中心设备的运行和工作效率都受到温度的影响。
过高的温度会导致设备故障和数据丢失的风险,过低的温度会造成能源浪费。
因此,合理的冷却系统是数据中心的重要组成部分。
二、数据中心冷却系统的工作原理数据中心冷却系统的主要目标是降低机房内温度,并控制湿度在合适的范围内。
冷却系统通常由以下几个部分组成:冷却设备(如空调或冷水机组)、空气流动路径、湿度控制设备和监测系统。
冷却设备通过吸收机房内的热量,达到降温的目的。
常见的冷却技术包括传统的机械制冷、热泵和间接冷却等。
机械制冷常用于小型数据中心,通过压缩制冷剂的方式实现冷却。
热泵则采用热能转换的原理,将低热能转化为高热能。
间接冷却技术主要利用湖水、江水等水源,通过换热器对机房进行冷却。
空气流动路径是冷却系统中的关键因素,它通过合理的设置和规划,使冷空气能够在机房内的设备周围流动,进而吸收热量。
同时,保持机房内的空气流动路径良好也可以降低设备堆积导致的积热问题。
湿度控制设备用于调节机房内的湿度,以保持设备的正常运行。
高湿度会导致机房中的电子器件腐蚀和短路。
因此,通过调节湿度,可以保护设备的寿命和稳定性。
监测系统负责实时监测机房的温度、湿度和其他环境参数,并将数据传输到管理中心。
管理人员可以通过监测系统获得有关机房运行状态的及时信息,并及时采取相应的措施保证数据中心的运行。
三、常见的数据中心冷却技术1. 精密空调系统:精密空调系统是传统的数据中心冷却技术,它使用冷却剂冷却空气,并通过风道将冷风引入机房。
数据中心制冷节能技术及应用
数据中心制冷节能技术及应用摘要:近年来,众多行业的发展都渗透了绿色发展的概念,将节能技术大力推广到行业中各个生产环节,企业的整体能源消耗降低有了显著改善。
但是随着能源的匮乏问题日益严峻,各企业越来越重视节能技术的应用,尤其是数据中心制冷节能技术的应用。
本文主要针对数据中心制冷节能技术及应用进行简要分析。
关键词:数据中心;制冷节能;技术;应用1常用节能制冷技术概述通过数据调查显示,数据中心的制冷系统常采用热交换器,来达到数据中心制冷的目的。
而大部分企业经常采用自然冷却技术改善能耗过高的问题,当然还有双冷源分布式热管背板冷却技术、优化数据中心空调气流、数据中心空调功效提高、高功率高密度机柜局部热点等解决途径。
2数据中心的能源消耗关于数据中心能效,现阶段比较有影响的是绿色网格组织(GreenGrid)提出的能效指标:电能利用效率PUE(PowerUsageEffectiveness)。
目前PUE已经成为衡量数据中心能耗的最重要的指标:PUE=所有设备的电耗/IT设备的功率。
在保证数据中心稳定、安全运行的同时,如何提高能源利用率,降低PUE,已成为众多大型数据中心的目标之一。
一个典型的数据中心的能耗分布大概如下:IT设备占总能耗的52%;空调系统占38%;UPS及配电系统的损耗大概占9%;其余的电力照明系统约为1%。
对于大型数据中心而言,采用集中式水冷冷水系统进行制冷更节能、更经济、也更利于集中管理,是大型数据中心中主流的制冷方式。
水冷冷水空调系统的能耗比例大约为:压缩机的能耗占到了54%,水泵占18%,冷却塔占9%,精密空调占19%。
3双冷源分布式热管背板冷却技术3.1两种换热方式热管循环换热和压缩制冷循环换热是双冷源热管背板制冷系统的两种方式,其实现热交换的途径是经过中间换热器,最终解决两个循环共用制冷剂造成的难以调节的流量等问题。
3.2两种换热方式的自由切换根据室内外温度变化,制冷系统会自动选择两种换热方式和两种方式同时运行三种方式且不涉及任何人为操作的环节,基于各机柜发热量实现了背板风机自动调速,最终实现机组的能耗降低。
数据中心冷却技术的发展与演进
第20卷第12期2020年12月R E F R I G E R A T I O N A N D A I R GC O N D I T I O N I N G 7G16收稿日期:2019G12G02,修回日期:2020G07G29作者简介:傅烈虎,硕士,主要从事数据中心的设计与建造工作.数据中心冷却技术的发展与演进傅烈虎(维缔技术有限公司)摘㊀要㊀对数据中心冷却技术的发展与演进进行阐述与分析.从数据中心的冷却对象对温湿度的环境要求出发,重点介绍A S H R A ET C 9.9«数据处理设备热指南»的技术要求演进,根据其所划分的4个等级的数据中心热环境,得到相关结论;分析不同的冷却方案与不同气流组织形式之间的对应关系;通过对比风冷与水冷的传热技术参数,发现随着数据中心的大规模扩张和单机柜功率密度的增大,水冷技术的规模效应和节能优势得以凸显;对自然冷却技术(直接或间接自然冷却)的应用进行分析,指出结合地理气象条件和建筑特点,有多种冷却技术可以联合应用.关键词㊀数据中心;冷却技术;气流组织;自然冷却D e v e l o p m e n t a n d e v o l u t i o no f d a t a c e n t e r c o o l i n g t e c h n o l o g yF uL i e h u(V e r t i vT e c hC o .,L t d .)A B S T R A C T ㊀T h ed e v e l o p m e n ta n de v o l u t i o no fd a t ac e n t e rc o o l i n g t e c h n o l o g y ar ee x Gp o u n d e da n da n a l y z e d .B a s e do n t h ee n v i r o n m e n t a l r e q u i r e m e n t so n t e m pe r a t u r e a n dh u Gm i d i t yf o rt h ed a t ac e n t e rc o o l i ng o b j e c t s ,th ee v o l u ti o no ft e c h n i c a lr e q u i r e m e n t sf o r A S H R A ET C 9.9T h e r m a lG u i d e l i n e s f o rD a t aP r o c e s s i n g En v i r o n m e n t s a r e i n t r o d u c e d .A c c o r d i n g to t h e t h e r m a l e n v i r o n m e n t o f d a t ac e n t e rw h i c ha r ed i v i d e d i n t o 4l e v e l s ,t h e r e l e v a n t c o n c l u s i o n sa r eo b t a i n e d .T h er e l a t i o n s h i p sb e t w e e nd i f f e r e n tc o o l i n g s o l u t i o n s a n dd i f f e r e n t f o r m so f a i r f l o w d i s t r i b u t i o na r ea n a l y z e d .T h r o u g ht h ec o m pa r i s o no f a i r Gc o o l e da n dw a t e r Gc o o l e dh e a t t r a n s f e r t e c h n o l o g y p a r a m e t e r s ,i t s h o w s t h a t a l o n g w i t h t h e l a r g e Gs c a l e e x p a n s i o no f d a t ac e n t e r sa n dt h e i n c r e a s eo f p o w e rd e n s i t yp e r r a c k ,t h ea d Gv a n t a g e s o fw a t e r c o o l i n g t e c h n o l o g y h a v eb ec o m e p r o m i n e n t .T h r o u g ha n a l y z i n g t h e a pGp l i c a t i o no f f r e e c o o l i n g t e c h n o l o g y (d i r e c t o r i n d i r e c t f r e e c o o l i n g),i t s p o i n t e do u t t h a t c o m b i n i n gg e o g r a p h i c a l a n dm e t e o r o l o g i c a l c o n d i t i o n sw i t hb u i l d i n g c h a r a c t e r i s t i c s ,a v a r i Ge t y o f c o o l i n g t e c h n o l o gi e s c a nb eu s e d i n c o m b i n a t i o n .K E Y W O R D S ㊀d a t a c e n t e r ;c o o l i n g t e c h n o l o g y ;a i r f l o wd i s t r i b u t i o n ;f r e e c o o l i n g㊀㊀随着中国数字化进程的加快和5G 技术的商用,数据中心呈现蓬勃发展趋势.从云计算㊁雾计算到边缘计算,互联网技术日新月异,冷却技术随着数据中心的发展与时俱进.近几年来,关于数据中心冷却技术的研究成果开始逐渐见诸于期刊.高彩凤等[1]以某典型数据机房为研究对象,对其热环境进行了现场实测和C F D 模拟,认为封闭冷通道能够更有效地提高机房空调冷量利用效率.孙大康等[2]通过试验和数值模拟分析不同功率㊁开放通道和封闭通道情况下,地板高度对数据中心地板下送风特性及制冷效率的影响.易伶俐[3]对比了上送风㊁地板下送风和列间空调送风的优势和劣势,并提出了数据中心空调设计的要点.赖柏年等[4]以数据中心空调水系统的机房空调末端为研究对象,结合实际工程对传统下送风机房专用空调和3种新型末端进行了不同机房功耗下㊀ 8㊀第20卷㊀的C F D模拟分析,并与实测的机房热环境数据进行了对比.王振英等[5]针对我国不同气候区的气候特点,以某中等规模数据中心为例,量化给出了季节性和区域性气候差异对数据中心制冷系统能效的影响,分析了风冷式和水冷式系统在不同气候区的应用优势.王克勇等[6]认为在大型数据中心机房采用水冷式冷冻水空调系统已经成为一种趋势,分析了3种典型的水冷式冷冻水空调系统的优缺点.张海南等[7]认为:热管式自然冷却与空气侧自然冷却相比,不影响室内空气质量和湿度;与水侧自然冷却相比,由于内部为相变传热,传热效果及自然冷源利用率更高.王飞[8]从机房空调的设备层面介绍了自然冷却技术的应用现状,对比了重力型热管系统㊁动力型热管系统以及变频型热管系统的应用场景.杨硕[9]通过构建节能模型,对比分析了冷冻水型空调㊁风冷空调加装热管模块前后的节能情况,并探讨了热管技术在数据中心应用的可行性.王泽青[10]利用建筑能耗模拟软件,模拟了中国大陆地区数据中心3种典型气候地区的3种自然冷却模式下的空调能耗并进行了对比分析,给出了水侧自然冷却地理位置的分界线.刘海潮等[11]针对水㊁空气㊁制冷剂等分别作为间接蒸发冷却过程的冷却介质及产出介质做了相关研究,认为将冷却介质㊁工作介质与产出介质多级组合,充分采用其他自然冷源,可使间接蒸发冷却技术得到广泛应用.耿志超等[12]提出了间接蒸发冷却空调技术的几种形式,并对其在数据中心的应用形式进行了分析.傅烈虎等[13]介绍了F a c e b o o k在美国俄勒冈州的数据中心的空气侧全新风自然冷却方案,并对该方案进行了气流组织仿真分析.在本文中,笔者主要介绍数据中心冷却技术的发展与演进,旨在帮助读者了解数据中心冷却技术的发展,从而对冷却技术有一个全面而深刻的认识.1㊀数据中心的冷却对象数据中心是进行数据计算㊁存储和交换的场所,它不仅包含大量的存储器㊁交换机㊁服务器等电子信息设备,还包含大量的配电柜㊁不间断电源㊁蓄电池㊁精密空调㊁冷水机组㊁水泵等动力设备.数据中心的冷却对象主要是电子信息设备,这些设备以高耗电量高热量而著称,并且以显热为主要表现形式,同时这些设备要求环境的温湿度波动范围小.传统建筑行业民用空调的特点是显热比低,温湿度控制精度差,难以直接在数据中心应用,数据中心必须采用专用的精密空调.究其根本原因是空调服务的冷却对象不同,前者为人服务,提供舒适性环境;后者为电子信息设备服务,提供设备安全稳定运行的温湿度环境.两者本质都是必须结合冷却对象的特性为其提供相应的运行环境.2㊀数据中心的环境要求数据中心的环境要求是随着电子信息设备的技术发展而逐渐演进的.摩尔定律表明,电子信息设备内的集成电路芯片上所集成的电路的数目,每隔18个月就翻一番.这意味着电子信息设备的集成度越来越高,单位体积内的耗电量越来越大.因此,电子信息设备对其工作的环境要求也是随着技术的发展而不断变化.A S H R A ET C9.9委员会先后对«数据处理设备热指南»进行了4次官方发布,最初发布是2004年版的,在2008年发布的版本中扩大了温湿度的建议范围,如表1所示.电子信息设备内元器件主要为中央处理器㊁存储器和硬盘等,虽然这些元器件正常运行的温湿度范围各不相同,但是对于整个电子信息设备而言,其正常运行环境以所有设备的最不利工况为基本要求.从温度的角度分析,温度过低会造成过度冷却,不仅增加了冷却设备的能耗,而且容易产生凝露,造成元器件腐蚀或短路;温度过高会造成电子设备过热而发生运行故障的概率增大.从湿度的角度分析,湿度过低容易产生静电,湿度过高会产生凝露,这些现象都会给元器件造成损坏.随着材料科学的发展和生产制造工艺的进步,电子信息设备最不利的工作环境要求逐渐得以改善.当前主流厂家的电子信息设备均能够在进风温度18~27ħ下良好运行.正是基于电子信息设备自身运行环境日渐宽松,其本身耐热耐燥能力逐渐增强,因此,当前主流厂家的电子信息设备均能够在进风温度18~27ħ下良好运行.A S H R A ET C9.9委员会在2011年发布«数据处理设备热指南»第3版,相比2008版更新了服务器进风温度的分级等级,将2008版的数据中心表1㊀A S H R A ET C9.9数据中心温湿度的建议范围[14]参数2004版2008版温度下限干球温度20ħ干球温度18ħ温度上限干球温度25ħ干球温度27ħ湿度下限相对湿度40%露点5.5ħ湿度相对湿度55%相对湿度60%且露点15ħ㊀第12期傅烈虎:数据中心冷却技术的发展与演进9㊀ ㊀表2㊀A S H R A ET C 9.9的2008版和2011版数据中心环境分级2008版分级2011版分级适用场合信息通信设备环境控制要求1A 1A 22A 3A 4数据中心企业级服务器㊁存储器大容量服务器㊁存储器㊁个人电脑㊁工作站严格控制部分控制部分控制部分控制3B 办公区㊁住宅㊁移动环境个人电脑㊁工作站㊁笔记本电脑㊁打印机最小控制要求4C零售店㊁工厂零售终端㊁控制器㊁计算机㊁掌上电脑不作控制要求表3㊀A S H R A ET C 9.9(2011版)数据中心温湿度推荐范围和允许范围范围等级干球温度/ħ相对湿度/不结露最高露点/ħ推荐范围所有A 级18~27露点5.5~15ħ且相对湿度ɤ60%允许范围A 115~32相对湿度20%~80%17A 210~35相对湿度20%~80%21A 35~40露点ȡ10.4ħ且相对湿度8%~85%24A 45~45露点ȡ10.4ħ且相对湿度8%~90%24B 5~35相对湿度8%~80%28C5~40相对湿度8%~80%28温湿度范围(分为1级和2级)调整为2011版的A 1,A 2,A 3和A 4四个等级,如表2所示.2011版分级的温湿度推荐范围与2008年版保持一致,温湿度允许范围有些变化,如表3所示.2011版«数据处理设备热指南»的温湿度建议范围在焓G湿图上的温湿度包络区域如图1所示,最里面的包络区域为A S H R A E T C 9.9委员会推荐的温湿度区域,其他包络区域由内向外逐步扩大,依次分别为A 1,A 2,A 3和A 4四个等级区域.任何空气调节方式都要将温湿度区域范围外的空气状态通过空气调节手段处理到A S H R A E T C9.9推荐的温湿度区域范围内,如果某地区的室外空气状态本身就处于A S H R A E T C 9.9委员会建议的温湿度区域,并且这种状态占全年的时间很长,那么在该地区就有应用自然冷却技术的可能.A S H R A E T C 9.9委员会在2015年发布了«数据处理设备热指南»第4版,数据中心温湿度建议范围[14]如表4所示.相比2011版,变化主要在于统一了A 1,A 2,A 3和A 4等级的温湿度推荐范围的湿度下限,如图2所示.这意味着将来对数据中心的加湿要求有所降低,数据中心可以容忍的最低相对湿度为8%,数据中心几乎不用加湿.这个变化会直接影响今后机房精密空调的研发设计与加工生产,并且为节能提供了一定空间.图1㊀A S H R A ET C 9.9(2011版)温湿度建议范围在焓G湿图上的表示表4㊀A S H R A ET C 9.9(2015版)数据中心温湿度推荐范围和允许范围范围等级干球温度/ħ相对湿度/不结露最高露点/ħ推荐范围所有A 级18~27露点9~15ħ且相对湿度ɤ60%允许范围A 115~32露点-12~27ħ且相对湿度8%~80%17A 210~35露点-12~27ħ且相对湿度8%~80%21A 35~40露点-12~27ħ且相对湿度8%~85%24A 45~45露点-12~27ħ且相对湿度8%~90%24B 5~35露点ɤ29ħ且相对湿度8%~80%28C5~35露点ɤ29ħ且相对湿度8%~80%28㊀ 10㊀第20卷㊀图2㊀A S H R A ET C9.9的2011版和2015版数据中心温湿度推荐范围的比较3㊀常见的气流组织形式3 1㊀电子信息设备的气流组织电子信息设备的气流组织形式主要3种,如图3所示[15].FGR形式是当前电子信息设备的主流气流组织,是服务器等设备的典型进出风方式,服务器的这种进出风方式也是目前最易对服务器进行冷却的一种气流组织,且常见于冷或热通道封闭的方案中;FGT形式和FGT/R形式是传输设备(比如交换器等)的典型进出风方式,特别是后者一般常见于运营商的传输机房,并且该气流组织不易进行冷却方案的实施,容易造成冷热气流混合.图电子信息设备的气流组织㊀㊀如前文所述,电子信息设备的主流气流组织形式为前进风G后出风方式,因此,电子信息设备的主流冷却方案是基于该方式设计的.常见的电子信息设备冷却方案(这里不讨论芯片级液冷,因为其还未成主流)包括机柜级主动式冷却(如图4所示)㊁机柜级被动式冷却方案(如图5所示)㊁行级冷却方案(如图6所示).机柜级主动式冷却方案就是业内常说的水冷机柜,可以近似认为是一个 冰柜 ,将I T设备直接放在水冷机柜内进行冷却,一般常见于超级计算机中心这类高性能计算场所,其冷却介质一般是水.机柜级被动式冷却方案是近几年中国移动主推的冷却方案,业内称之为水冷背板或热管背板,其冷却介质既可以是水,也可以是制冷剂.之所以称为被动式冷却,原因是冷却单元只有换热盘管,没有风机,完全依赖服务器自身的风机提供风压.图4㊀机柜级主动式冷却方案㊀第12期傅烈虎:数据中心冷却技术的发展与演进11㊀㊀图6㊀行级冷却方案行级冷却方案是目前行业客户和运营商常用的方案.它采用封闭通道的方式,一般情况下是封闭冷通道形成冷池,对整列服务器机柜进行封闭式集中冷却,并且很多运营商在当前节能减排的背景下,纷纷采用这种方案对老旧机房进行节能改造,以达到降低机房P U E 的目的.3 2㊀数据中心机房级气流组织数据中心机房级气流组织形式是与数据中心行业的发展密不可分的.在数据中心发展的早期,大部分是运营商的数据中心,并且电子信息设备的发热量都不大,导致每个42U 机柜的整体功率密度都不高,一般都在2千瓦/机柜以下.因此,图7㊀风帽送风方式最早的气流组织形式就是如图7所示的风帽送风方式,现在很多老旧的运营商机房里还能见到这种传统的送风方式,其实还是摆脱不了民用空调气流组织方式的影子.这种风帽送风的气流组织形式提供的送风距离较短,一般在机外余压200P a 的情况下,送风距离为15m .随着信息技术的发展,电子信息设备的集成度越来越高,发热量越来越大,导致单机柜功率密度达到3~5k W .如果继续采用风帽送风方式,就会导致数据中心出现局部热点.因此,如图8所示的地板下送风方式应运而生,并且在相当长的一段时间内成为气流组织的主流形式,直到现在这种方式在数据中心依然随处可见.地板下既是送风静压箱,也是线缆布放空间.当采用地板下送风且地板下同时布防线缆时,地板下静压箱高度不宜低于500mm ,数据中心的层高不宜低于3000mm [16].图8㊀地板下送风方式当电子信息设备的功率密度进一步提高后,即使采用地板下送风也会产生局部热点.需要对数据中心局部过热的机柜进行精确送风冷却.图9所示的风管送风方式是最直接的精确送风方式之一.风管送风方式送风距离远,并且对过热设备定点精确冷却,很好地解决了局部热点问题.但是,风管送风要求精密空调的机外余压足够大,以保证足够的送风距离和风量.另外,这种气流组织形式对风管的设计和施工工艺要求较高.图9㊀风管送风方式当前数据中心的单机柜功率密度一般设计在5~10k W 之间.如此高的散热量除了采用封闭通道方式对机柜列进行冷却,还需要对机柜就近送风冷却.图10所示的水平送风方式是这一方案的典型代表.将精密空调直接部署在机柜列间,㊀ 12㊀第20卷㊀最短距离的靠近冷却对象,从而对机柜就近送风冷却.这种气流组织的好处是便于机柜和精密空调以模块方式部署,使得数据中心的业务与投资根据实际需求按需扩展和平滑过渡.图10㊀水平送风方式还有2种就近送风的气流组织形式,分别是图图11㊀通道顶部送风方式图12㊀机柜顶部送风方式11所示的通道顶部送风方式和图12所示的机柜顶部送风方式.这2种气流组织常见于高热密度数据中心场景中,既可以作为主用的气流组织形式,也可以作为其他气流组织形式的补充,对高热密度机柜进行辅助就近送风冷却.其实这2种气流组织形式最符合冷气流下沉㊁热气流上升的热力学原理,但其缺点是在工程实施上不容易进行通道封闭.如果不对通道进行封闭,就会出现图13所示的环流现象和图14所示的旁流现象.这2种恶劣的气流现象都会造成气流组织混乱,出现冷热气流混合,导致冷量流失和浪费.常见的评图13㊀环流现象图14㊀旁流现象价数据中心气流组织的指标有机架冷却指数(R C I )㊁回风温度指数(R T I )㊁供热指数(S H I )和回热指数(R H I )[17].4㊀从风冷式冷却方案到水冷式冷却方案的转变根据冷却介质的不同,数据中心机房级冷却方案可分为2类:仅有制冷剂循环的风冷式精密空调方案和既有制冷剂循环又有载冷剂循环的水冷式冷水机组方案.在数据中心发展的早期,由于其规模不大(单个数据机房内机柜数量不大于1000台),且单机柜功率密度也不高(数据机房整体功率一般不超过2000k W ),一般以风冷式精密空调方案为主.但随着数据中心的数据量日益呈爆炸式增长(根据«国务院关于加快培育和发展战略性新兴产业的决定»(国发 2010 32号):数据中心机架数量在3000~10000台的大型和超大型数据中心),其业务规模越来越大,单机柜功率密度也越来越大,风冷式精密空调方案已经满足不了规模化增长的需求,也无法冷却越来越高的单机柜发热量.因此,在大型数据中心中水冷式冷水机组方案逐渐成为主流,如图15所示.虽然民用建筑行业业已使用水冷式冷水机组方案,但因为其冷却对象的差异,造成冷水机组的运行工况不同.在数据中心领域,一般使用高温冷水机组或双工况冷水机组,一方面满足数据中心高显热比的要求,另一方面提高冷冻水的供回水温度可以提高冷水机组能效,达到节能降耗的目的.在不同的换热或制冷环节,有不同的冷却方案和制冷方案,常见的数据中心冷却方案如表5所示.㊀第12期傅烈虎:数据中心冷却技术的发展与演进13㊀㊀图15㊀典型的水冷式冷水机组方案表5㊀常见的数据中心冷却方案热排放方案制冷方案终端换热方案冷量分配方案效率直接水冷(见图15)水侧经济器(板换)液冷芯片级分配间接水冷(板换)冷水机组(见图15)中心空气处理单元机柜级分配蒸发冷却直接膨胀水冷末端(见图15)顶部上送风风冷精密空调直膨地板下送风(见图15)干冷器冷却⬇㊀㊀过去很多年以来,数据中心内水不进机房成了一条不成文的规定.但随着数据中心功率密度越来越高,规模越来越大,风冷式冷却方案已经难以满足数据中心的散热需求,在这一大环境下水冷式冷却方案开始逐渐登上了舞台.如表6所示,数据中心的单机柜功率密度每5年几乎以15%~20%的增速在提高,发热量越来越大,最高的单机柜功率密度已经达到50k W ,超过了风冷式冷却方案的冷却极限.广州超算中心定制的超级计算机单机柜功率密度高达80k W ,采用的就是水冷式冷却方案.数据中心的冷却方案从风冷式转为水冷式,除了功率密度的提高和规模效益,还有节能减排在驱动这种转变.水的比热容是空气的4倍多,单位流量的水比空气要携带更多的热量或冷量;另外,水的密度是空气的800倍多,携带相同的热量或冷量时水比空气需要更小的流量,意味着可以使用更小的管径,而且耗电量能够降低.从表7可以看出,传递10R t 的热量或冷量,风冷式冷却方案的耗电量比水冷式冷却方案多出14倍.5㊀自然冷却技术的应用自然冷却技术本不是新鲜事物,在工业大厂房内的置换通风技术本质上也是自然冷却技术的应用,只不过工业厂房不仅关注温度湿度,还关注表6㊀服务器功率密度发展趋势[15]服务器高度插槽数单机柜(42U )功率密度/(瓦/机柜)2010年2015年2020年相对增长率/%2015年比2010年2020年比2015年1U 1s10710121801386014142s 25200308703654023184s 4200046200504001092U 2s 15750231002625047144s 29400378004200029114U2s 2300031000330003567U (刀片)2s 33000390004500018159U (刀片)2s 260003200038000231910U (刀片)2s3200036000420001317表7㊀风冷式冷却方案与水冷式冷却方案对比冷却方案热量/冷量传热介质流量管径/英寸耗电功率/k W风冷式水冷式10R t (35k W )空气9217c f m (4352L /s )ϕ342.7水20g pm (1.5L /s )ϕ20.18注:风冷式冷却方案和水冷式冷却方案都是基于空调送回风温差在12ħ的前提下比较的.㊀ 14㊀第20卷㊀空气洁净度及换气次数,以保障人员健康要求.数据中心自然冷却技术的兴起源自国家政策对新建机房低P U E 的要求.2013年,工信部㊁发改委㊁国土部㊁电监会和能源局联合发布«关于数据中心建设布局的指导意见»,明确提出将数据中心从市场需求和环境友好角度出发,分类型引导建设的指导要求:新建数据中心P U E 要求低于1.5;老旧数据中心经改造后P U E 要求低于2.0.在国家政策号召下,自然冷却技术成为节能减排降低P U E主要的有效手段.根据数据中心冷却方案的不同,自然冷却技术分为风侧自然冷却技术和水侧自然冷却技术.5 1㊀风侧自然冷却技术当室外温度达到A S H R A E T C 9.9(2015版)«数据处理设备热指南»要求时,室外空气经过处理后直接送入室内,从而利用室外自然冷源,这是风侧直接自然冷却技术,如图16所示.由于整个送风过程中间没有换热环节,因此它是自然冷却技术中效率最高㊁全年自然冷却时间最长的方案.但是在某些地区,由于空气污染比较严重,而数据中心机房对空气洁净度要求较高,一般要求达到I S O 8级或M E V R 13,因此必须对直接引入的新风进行除硫㊁除尘和过滤净化.另外,直接引入新风会引入新的湿负荷,还需要对新风的湿度进行控制.鉴于上述原因,尽管风侧直接自然冷却的效率高,但其运维成本也很高,在数据中心的实际工程项目中极少采用风侧直接自然冷却方案.图16㊀风侧直接自然冷却示例将室外空气(或进行喷水降温处理后)通过热交换器与机房内空气换热,使室内温度达到A S H R A ET C 9.9(2015版)«数据处理设备热指南»要求,从而达到利用室外冷源的目的,这就是风侧间接自然冷却技术,如图17所示.与风侧直接自然冷却相比,它仅需要采用室外新风维持室内正压,从而保证室内相对稳定的湿度和洁净度.风侧直接自然冷却会发生室内和室外空气的热质交换;风侧间接自然冷却使得室内和室外空气只发生热交换,没有质交换.图17㊀风侧间接自然冷却示例5 2㊀水侧自然冷却技术水侧自然冷却技术分为水侧直接自然冷却技术和水侧间接自然冷却技术.水侧直接自然冷却如图18所示.在夏季,开启冷水机组正常运行模式,为传统机械式制冷方案,如图18(a )所示.在冬季,关闭冷水机组,将冷却水作为冷冻水使用直接导入空调末端设备,从而实现自然冷却,如图18(b)所示.这种方案的优点是,自然冷却时直接使用冷却水,可以最大化地使用自然冷源;其缺点是对水质要求很高,若水质得不到保证,冷却水进入空调末端设备长期运行会造成盘管脏堵,致使换热性能降低甚至影响设备正常运行.图18㊀水侧直接自然冷却技术示意图水侧间接自然冷却如图19所示,其基本原理是在冷却塔与冷水机组之间增加一个板式换热器.在夏季,开启冷水机组正常运行模式,板式换热器停止使用,此为传统机械式制冷方案,如图19(a)所示.在冬季,关闭冷水机组,冷却塔中的冷却水与空调末端设备中的冷冻水通过板式换热器进行换热,从而实现自然冷却,如图19(b )所示.这种方案的优点是,实现了冷却水与冷冻水的物理隔离,保护了空调末端设备,也保证了供冷的可靠性;其缺点是增加了板式换热器这个换热环节,使得相比直接自然冷却。
数据中心制冷技术的应用及发展V2 1
数据中心制冷技术的应用及发展摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。
同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。
关键词:数据中心;制冷;能效;机房;服务器Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansionair-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server1前言随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
数据中心制冷技术的应用及发展摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。
同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。
关键词:数据中心;制冷;能效;机房;服务器Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansionair-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server1前言随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。
作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。
数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。
数据中心是一整套复杂的设施。
它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。
其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。
降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。
制冷系统也随着数据中心的需求变化和能效要求而不断发展。
下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。
2风冷直膨式系统及主要送风方式1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。
1998~2004年间中国互联网产业全面起步和推广,此时的数据中心正处于雏形阶段,更多的被称为计算机房或计算机中心,多数部署在如电信和银行这样需要信息交互的企业。
当时的计算机房业务量不大,机架位不多,规模也较小,IT设备形式多种多样,单机柜功耗一般是1~2kw。
受当时技术所限,IT设备对运行环境的温度、湿度和洁净度要求都非常高,温度精度达到±1℃,相对湿度精度达到±5%,洁净度达到十万级。
依据当时的经济和技术水平,计算机房多采用了风冷直膨式精密空调维持IT设备的工作环境,保证IT设备正常运行。
风冷直膨式精密空调主要包括压缩机、蒸发器、膨胀阀和冷凝器以及送风风机、加湿器和控制系统等,制冷剂一般为氟里昂,单机制冷量10-120KW。
原理如图1所示。
每套空调相对独立控制和运行,属于分散式系统,易于形成冗余,可靠性较高,具有安装和维护简单等优点,是这个时期数据中心大量采用的空调方案。
缺点是设备能效比较低,COP(Coefficient Of Performance)值小于3.0,室内外机受到管道距离限制。
图1:风冷直膨式精密空调原理图风冷直膨式精密空调室内机一般部署在机房一侧或两侧,机房内的气流组织方式一般采用两种:送风管道上送风方案和架空地板下送风方案。
风管上送风方式是指在机房上空敷设送风管道,冷空气通过风管下方开设的送风百叶送出,经IT设备升温后负压返回空调机。
该方法的优点在于安装快速,建造成本低。
缺点是受到各种线缆排布和建筑层高限制,送风管道截面无法做大,导致风速过高,送风量无法灵活调节。
这种送风方式在低热密度的机房应用较多。
图2 风管上送风案例地板下送风是另一种,即使是现在,也是大量数据中心项目中仍在使用和新建采用的一种气流组织方式。
这种方式利用架空地板下部空间作为送风静压箱,减少了送风系统动压,增加静压并稳定气流。
空调机将冷空气送至地板下,通过送风地板通孔送出,由IT设备前端进风口吸入。
该方法的优点在于机房内各点送风量可以通过送风地板通孔率调整,同时,通过合理布置数据中心机房线缆和管道,可以少量敷设在地板下,保证美观。
缺点是随着使用需求的增长和调整,地板下敷设的电缆不断增加,导致送风不畅,甚至形成火灾隐患。
图3 地板下送风案例3水冷系统2005~2009年间互联网行业高速发展,数据业务需求猛增,原本规模小、功率密度低的数据中心必须要承担更多的IT设备。
此时的单机柜功率密度增加至3~5kw,数据中心的规模也逐渐变大,开始出现几百到上千个机柜的中型数据中心。
随着规模越来越大,数据中心能耗急剧增加,节能问题开始受到重视。
传统的风冷直膨式系统能效比COP(Coefficient Of Performance)较低,在北京地区COP约为2.5~3.0,空调设备耗电惊人,在数据中心整体耗电中占比很高。
而且,随着装机需求的扩大,原来建设好的数据中心建筑中预留的风冷冷凝器安装位置严重不足,噪音扰民问题凸显,都制约了数据中心的扩容。
此时,在办公建筑中大量采用的冷冻水系统开始逐渐应用到数据中心制冷系统中,由于冷水机组的COP可以达到3.0~6.0,大型离心冷水机组甚至更高,采用冷冻水系统可以大幅降低数据中心运行能耗。
冷冻水系统主要由冷水机组、冷却塔、冷冻水泵、冷却水泵以及通冷冻水型专用空调末端组成。
系统采用集中式冷源,冷水机组制冷效率高,冷却塔放置位置灵活,可有效控制噪音并利于建筑立面美观,达到一定规模后,相对于直接蒸发式系统更有建造成本和维护成本方面的经济优势。
图4:水冷系统冷冻水系统应用最多的空调末端是通冷冻水型精密空调,其单台制冷量可以达到150kw以上。
送风方式与之前的风冷直膨式系统变化不大,仅仅是末端内的冷却媒质发生变化,空调设备仍然距离IT热源较远,主要依靠空调风扇输送空气维持气流组织。
4水侧自然冷却和新型空调末端2010~至今,随着数据中心制冷技术的发展和人们对数据中心能耗的进一步关注和追求,自然冷却的理念逐渐被应用到数据中心中。
在我国北方地区,冬季室外温度较低,利用水侧自然冷却系统,冬季无需开启机械制冷机组,通过冷却塔与板式换热器“免费”制取冷源,减少数据中心运行能耗。
水侧自然冷却系统是在原有冷冻水系统之上,增加了一组板式换热器及相关切换阀组,高温天气时仍采用冷水机组机械制冷,在低温季节将冷却塔制备的低温冷却水与高温冷冻水进行热交换,在过渡季节则将较低温的冷却水与较高温的冷冻水进行预冷却后再进入冷水机组,也可以达到降低冷水机组负荷及运行时间的目的。
图5:水冷系统自然冷却系统原理传统数据中心的冷冻水温度一般为7/12℃,以北京地区为例,全年39%的时间可以利用自然冷却,如果将冷冻水提高到10/15℃,全年自然冷却时间将延长至46%。
同时由于蒸发温度的提高,冷水机组COP可以提升10%。
另一方面,随着服务器耐受温度的提升,冷冻水温度可以进一步提高,全年自然冷却的时间也将进一步延长。
目前国内技术领先的数据中心已经将冷冻水温度提高至15/21℃,全年自然冷却时间可以达到70%甚至更长。
水侧自然冷却系统虽然相对复杂,但应用在大型数据中心项目中的节能效果显著。
水侧自然冷却系统日渐成熟,已经成为我国当前数据中心项目设计中最受认可的空调系统方案。
我国目前PUE能效管理最佳的数据中心也正是基于水侧自然冷却系统,全年PUE已实现1.32。
在冷源侧系统不断演进发展的同时,新型空调末端形式也层出不穷。
传统的机房精密空调机组结构形式相对固定,设备厚度一般为600mm,宽度为2500mm左右,风量约27000m3/h,其机组内部风速达到7米/秒,空气阻力很大,风机大量的压力损失在了机组内部,造成了很大的能量浪费。
一般配置了450Pa风机全压的空调机,机外余压只有大约200Pa。
图6所示的AHU风机矩阵是一种新型的空调末端,运行时由AHU设备的回风口吸入机房热回风,顺序经过机组内部的过滤器、表冷器等功能段。
降温后的空气由设置在AHU 前部的风机矩阵水平送入机房,冷空气送入机房冷区,即机柜正面,冷却IT后升温排至热区,即机柜背面封闭的热通道内,向上至回风吊顶,又回到空调回风口,如此周而复始循环。
这种新型的空调末端改变了机房布置和传统精密空调机组的内部结构,大大增加了通风面积,截面风速可以控制在3米/秒以下,减少了空气在设备内部多次改变方向并大幅减小部件布置紧凑导致的阻力。
末端能耗最多降低约30%。
图6:AHU风扇矩阵设备行级空调系统(Inrow)和顶置冷却单元(OCU)是一种将空调末端部署位置从远离负荷中心的机房两侧移至靠近IT机柜列间或机柜顶部的空调末端侧的优化,形成了我们称之为靠近负荷中心的集中式制冷方式。
行级空调系统由风机、表冷盘管,水路调节装置、温湿度传感器等组成,设备布置在IT机柜列间。
行级空调通过内部风机将封闭通道的热空气输送至表冷盘管,实现冷却降温,IT设备根据自身需求将低温的冷通道空气引入,通过服务器风扇排至封闭的热通道,实现水平方向的空气循环。
行级空调系统(Inrow)因靠近负荷中心,因输送冷空气至负荷中心的距离减小,设备维持制冷循环所需的能耗会比传统方式降低。
顶置冷却单元与行级空调系统制冷循环很相似,但顶置冷却单元仅由表冷盘管、水路调节装置、温湿度传感器等组成,设备本身不再配置风机,表冷盘管设置于机柜顶部。
IT机柜风扇将排出的热空气聚集到封闭的热通道内,通过热压的作用,热空气自然上升,经过机柜顶部的顶置冷却单元表冷盘管降温后,因热压作用开始下降,并再由IT机柜风扇吸进IT 设备降温,实现垂直方向的空气循环。
顶置冷却单元(OCU)因其本身就没有配置风扇,热压作用维持了空气的自然流动循环,使得空调末端设备的能耗消耗降低至极致至0。