数据中心空调水系统供冷规模设计 叶明哲

合集下载

绿色数据中心机房空调方案冷冻水下送风

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标一、工程概况1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。

2、每个机房的设备类型、设备数量、设备功耗。

3、原有空调情况、送回风方式(改造项目)。

4、机房出现问题描述(改造项目)。

5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。

二、数据中心机房空调设计依据与标准1、设计规范与参考依据根据国家和国际的数据中心机房与空调的标准与规范:●GB50174-2008《电子计算机机房设计规范》●GB/T2887–2000《电子计算机场地通用规范》●ASHRAE (American Society of Heating, Refrigerating and Air-ConditioningEngineers, Inc.) TC9.9●TIA942标准(Telecommunications Infrastructure Standard for Data Centers)●其他数据中心和暖通空调设计规范和文件2、机房设计标准数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定:1)、温度、湿度标准:2)、噪音标准:主机房区的噪声声压级小于68分贝3)、正压密封要求主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。

4)、洁净度要求在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。

5)送风速度送风速度不小于3米/秒。

6)新风需求满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。

根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。

三、数据中心空调建设原则与目标1)、标准化。

数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。

某工程空调系统冷热源系统探讨

某工程空调系统冷热源系统探讨

某工程空调系统冷热源系统探讨田志叶【摘要】结合工程实例,对某工程采用的电制冷机作为冷源和锅炉房作为热源的空调系统进行了阐述,主要分析了冷热水系统、冷冻水及冷却水系统、补水系统及系统的定压和膨胀方式,为空调系统的设计积累了经验。

%Combining with the engineering example,this paper elaborated a project used electric refrigerator as the cold source and the boiler room as air conditioning heat source system,mainly analyzed the cold and hot water system,chilled water and cooling water system,water supply system and system constant pressure and expansion ways,accumulated experience for air conditioning system design.【期刊名称】《山西建筑》【年(卷),期】2015(000)003【总页数】2页(P126-126,127)【关键词】空调系统;电动式制冷机组;锅炉房;热水【作者】田志叶【作者单位】国家林业局林产工业规划设计院,北京 100010【正文语种】中文【中图分类】TU8310 引言随着社会生产力的发展和人民生活水平的提高,空调已成为各类建筑不可缺少的重要组成部分,空调系统的末端采用风机盘管,冷热源的形式结合当地能源供应情况和工程特点综合考虑。

本文结合工程实际情况,对目前建筑通常采用的电制冷机和锅炉房配套作为冷热源的空调系统做了简要论述。

1 工程概况山西某工程由4 座办公楼和1 服务中心组成,总建筑面积148 000 m2。

数据中心集中冷热源空调水系统控制设计分析

数据中心集中冷热源空调水系统控制设计分析
正 常情 况 下 冬 季 冷 水 机 组 运 行 的 状 况 与 夏 季 运 行 的 状 况 一
备用冷水机 组。利用大楼非数据 中心用 的冷源作 为 紧急备用 ; 另 致 , 为保证备用冷却塔 不结 冰和高于 2 4℃ 以上温度 , 冷却水 路互 种设 置专 用的备用冷水机组 。在大楼 空间有 限 、 为 节省投 资资 为连通 , 维持较高 的水 温 , 以便应急启 动备用机 组 , 同时也 利于散 金 的情 况下选用没 有专 门 的备 用冷 水机 组方案 。无备用 冷水 机 热。当室外天气温度较低时 , 备 用冷却塔水 路与正 在使用 的冷却 时, 根据数据 中心 空调进水温度 , 如大 于标 准温度 7℃ , 应 通过热 塔水路关闭 , 启动 板式 热交换 系统 , 利 用备用 冷却 塔组 成 自然冷
冷却水泵 、 冷却塔正 常全速或 变频调速 运行 。第 二种 : 冷 统 。数据 中心冷水机组或管路 出现故障时 , 利用 管路 中电动 阀切 调节 阀、 水机组冷却水进 出水 口处设 置电动二通 比例调节 阀 , 冷水机 组在 换到大楼平时用房水路 系统 , 停止供 应部分 大楼空调 。为保证 系
中图分类号 : T U 8 3 1 文献标识码 : A
1 概 述
连续供 冷。冷源由冷水 机组 提供 , 分为 两种 , 一 种为 没有 专用 的

冷水储水 水箱 , 自动供应 , 保证供冷 的连续性 。
数据 中心对 室内温度的恒定及连续性 要求 , 确定 了冷源必 须 4 冬季 冷水 机组 运行
却塔 , 实 时观察停 运 的冷却 塔 的水 温 , 以免 造成 结 冰。由于 数据 动冷水机组及其系统 。这时 , 应注意冷却 水水 温 , 这 时 的水 温 , 并

数据中心制冷方案的选择(全文)

数据中心制冷方案的选择(全文)

数据中心制冷方案的选择计划在数据中心添加新IT设备的决策者应该注意到哪种类型的制冷系统在当前和未来都能够满足要求。

最近高密度IT设备增加了,但机房制冷系统如果无法相应增加,就会导致制冷系统效率低下、制冷能力不可预测,在有些情况下根本无法满足冷却要求。

为了解决这个问题,人们提出了面向排列结构和面向机架结构的制冷系统。

空调的功能在数据中心里,所有的空调都具有两个功能:一是产生冷空气(也就是能提供数千瓦的制冷容量)并输送到需要冷却的关键设备上。

有多种方式可以产生大量的冷空气,如低温水、低温乙二醇,以及任何可以使用的媒质而无须考虑它们的结构。

空调的第二个功能就是将冷空气输送到各个机房,这里有三种不同的方式,如图1所示。

在面向机房形式的结构中(图1),计算机机房空调(CRC)单元与机房本身融为一体;在面向排列形式的结构中(图1),CRC单元是成排布置的;在面向机架形式的结构中(图1),CRC单元被放置在单独的机架上。

面向机房形式的制冷系统由一台或多台空调组成,其中任何一台空调都可以完全不受约束地(没有通风管道、风门调节器、通风口或其他方式进行风量操纵)给需要冷却的设备提供冷风,它们只有非常有限的能力来操纵出风或不出风,或者说是通过地板提升系统或顶棚送气回路来调节的。

对于许多使用面向机房形式制冷系统的小型计算机机房,人们很少注意到空调出风的情况,安置机架式空调也只是计划外的方案。

对于大型或复杂的数据中心,地板提升系统可以用于将冷空气导向到经过详细规划、发热量大的机架通道,或调整冷却过度使温度较低的通道。

但是,即使经过了精心设计,这种面向机房形式的制冷系统也在很大程度上依赖机房的一些固有限制,例如机房空间形状、地板上障碍物的分布、空调的位置,以及IT设备在机房中的放置方式等。

在这么多实际条件的限制下,特别是大多数数据中心在增加和重新放置IT设备方面的一些教训也证明,面向机房形式制冷系统冷却能力的可预见性会成为问题,特别是当机房内的设备功率密度增加时。

数据中心空调系统设计与优化方案研究

数据中心空调系统设计与优化方案研究

数据中心空调系统设计与优化方案研究随着互联网的快速发展,数据中心已经成为各个企业不可或缺的一部分。

而数据中心的核心组成部分之一就是空调系统,因为数据中心对温湿度的要求极高,一旦空调系统出现故障,将会对数据中心的运行造成很大的影响。

因此,设计和优化数据中心空调系统显得尤为重要。

一、数据中心空调系统的设计1.1空调系统的类型1.2空调系统的容量数据中心空调系统的容量需要根据数据中心的功耗来确定。

一般来说,空调系统的容量应该比数据中心的最大功耗高出20%左右,以保证在高峰时段空调系统能够正常运行。

1.3空调系统的布局数据中心空调系统的布局应该尽量简洁,避免复杂的管路和线路。

同时,应该考虑到未来的扩展性,留有足够的空间来进行升级和维护。

二、数据中心空调系统的优化2.1优化空调系统的运行模式通过对数据中心空调系统的运行数据进行监测和分析,可以优化空调系统的运行模式。

比如,可以根据室内外温差、负载率等因素,自动调整空调系统的运行模式,以达到节能减排的目的。

2.2优化空调系统的维护和管理定期对空调系统进行维护和管理,可以保证空调系统的正常运行。

比如,定期清洗空调系统的过滤器,可以保证空调系统的空气流通畅通,降低能耗。

2.3采用先进的节能技术随着科技的不断发展,越来越多的节能技术应用到了数据中心空调系统中。

比如,采用变频制冷技术,可以根据实际需求调整制冷机的运行速度,从而达到节能的目的。

数据中心空调系统的设计和优化是保障数据中心正常运行的重要环节。

通过合理的设计和优化,不仅可以保证数据中心的稳定运行,还可以达到节能减排的目的。

作为数据中心的管理者,我们应该充分认识到数据中心空调系统设计和优化的重要性,积极引进和采用先进的节能技术,为我国互联网产业的健康发展贡献力量。

在设计数据中心的空调系统时,我们需要考虑到很多因素。

比如说,数据中心的位置,因为不同的地理位置,气候条件不同,对空调系统的需求也会有所不同。

再比如,数据中心的规模,因为规模的不同,对空调系统的容量和布局也会有所要求。

数据中心制冷与空调设计标准

数据中心制冷与空调设计标准

数据中心制冷与空调设计标准
数据中心制冷与空调设计标准是一组建议性的设计准则,其目的是提高数据中心中服务器的效率和可靠性,使服务器能够保持在最佳的温度范围之内,以确保其正常运作。

首先,数据中心设计应以室内恒温为基准,设置定温控制系统,使室内恒温稳定。

这样可以保证冷却系统在合理的温度范围内运行,可改善服务器的可靠性和性能。

室内恒温从23℃至27℃之间,具体范围可按服务器要求进行调整。

其次,空调设备要具备容量充足的功能。

并且设置合适的出风口,以确保空调的高效性和可靠性。

第三,设备的布局应充分利用数据中心的冷却系统。

最佳的方式是将服务器摆到空间的中间部分,避免壁或柜靠近屋外,以免空调的散热和冷热混乱,影响系统的性能。

最后,冷却装置应采用水冷、风冷或热晴式冷却方式,以确保温度的平衡,使服务器内部高效地冷却。

当一种冷却方式不能满足数据中心的容量需求时,可以采取多种冷却方式来调节服务器的温度,以保证服务器的高可靠性。

以上是数据中心制冷与空调设计标准的总体要求,旨在通过提高服务器温度来提升数据中心的运行稳定性。

希望贯彻这些标准,以确保数据中心的高可靠性。

数据中心集中冷水空调系统设计要点

数据中心集中冷水空调系统设计要点

- 53 -工 业 技 术0 引言从2018年12月至今,中央先后8次重要会议对“新基建”进行了重点强调。

随着2020新冠疫情的发生,国家对“新基建”更是寄予厚望。

新基建包括5G 基站建设、特高压、城际高速铁路和城市轨道交通、新能源汽车充电桩、大数据中心、人工智能、工业互联网七大领域,以新发展理念为引领,以技术创新为驱动,以信息网络为基础,面向高质量发展需要,提供数字转型、智能升级和融合创新等服务的基础设施体系。

数据中心作为新基建的重要组成部分,是数字化发展的基石,注定在新基建浪潮中占据重要位置。

1 数据中心及冷水空调系统数据中心是指为集中放置的电子信息设备提供运行环境的建筑场所,可以是1栋或几栋建筑物,也可以是1栋建筑物的一部分,主要包括主机房、辅助区、支持区和行政管理区等。

数据中心基础设施是指在为电子信息设备提供运行保障的设施,主要包括土建、消防、电力、暖通空调等。

电力和空调作为基础设施两架马车在数据中心建设中尤为重要[1]。

电子信息设备包括服务器、交换机、存储设备等,主要功能是对电子信息进行采集、加工、运算、存储、传输以及检索等处理。

其工作特点是全年不间断运行,其电力输入基本完全转化为热量,在电子信息设备稳定运行阶段,其发热量基本没有变化,空调负荷相对稳定。

以1个中等数据中心为例,建筑面积20 000 m 2,规划安装电子信息设备机架共2 000架(约3万台服务器),数据中心电力输入20 000 kVA,空调系统冷负荷约17 300 kW。

总结数据中心空调系统特点主要表现为:冷负荷密度大(建筑面积为400 W/m 2~1 000 W/m 2),且随着空调系统的技术更新,冷负荷密度向更大的趋势发展;负荷稳定且连续不断;自控要求高。

空调系统能耗大,节能潜力大。

2 数据中心集中冷水空调系统设计要点某数据中心工程位于工业园区,该数据中心工程包括数据机房、制冷站以及辅助用房,建筑面积约为27 000 m 2,建筑面积18 500 m 2,建筑高度12 m,地上两层,1层为电力电池室、二层为IT 机房。

IDC空调问题解决方案-叶明哲

IDC空调问题解决方案-叶明哲
3) 合理的 N 值
从 IDC 运行情况来看,N+1 的 N 数值要合适,N 大了,冗余度不够,机房不安 全;N 小了,机房会安全,但投资大且造成空调运行的能效比过小,如果采用冷 备用空调(停机),部分冷风也会从停机的空调回风口跑出来,造成气流短路或 者气流倒灌,影响机房的原有气流组织,如果能够以低速或者低风量运行备用空 调,那总体风机功率就可以下降,效率提升;IDC 机房空调的 N 取值在 4~5 之 间是比较合理的,更高密度机房则要把 N 取值再减低。
4) 双 ATS 电源柜+空调新型电源接线方法
这种方案是对方法 2、3 的综合应用,即采用 ATS 的同时采用双电源屏方案。 从实际使用效果来看,在两路高压引入的情况下,采用双 ATS 电源柜+空调新型 电源接线方法,比用 UPS 供电更经济,而且可靠性也没减少多少,由于同一机房 的空调电源来自于不同的高压系统,如果这两路高压是真双路的话,那同时停电 的概率是很低的;而在停一路高压的情况下,还有一半的空调在运行,最重要的 是气流组织不会中断,在油机启动倒电过程中机房的温升还是可以接收的。
图 4 典型的下送风和冷热风道分离
3) 关注地板高度、楼房的净高和机架间距 活动地板的高度对机房空调的空气循环效率有着重大的影响,架空地板
的高度应根据负荷密度、机房面积综合确定。所需的净高度取决于机房的大 小功率密度和空调的设计方案,对于气流组织来说,活动地板高度是越高越 好,大型 IDC 机房建议地板净高≥60cm(图 5),并根据机架负荷可以适当加 大机架间距。
1) 分区配置原则
传统的配置是以机房为单位;采用的是房间级制冷,空调是以机房为单位进 行制冷,但这种方法的配置和冗余并不适用于大型的 IDC 机房。
现在的 IDC 机房由于建设规模大、面积大和机柜功率密度高,如果按照房间 级配置空调,一台空调发生故障,由于冗余的空调相距过远,气流组织无法送达, 会造成局部机柜设备过热;因此大型 IDC 机房的空调要进行分区配置,即把一个 大型的 IDC 机房划分为若干个分区,然后保证每一个分区内的空调均有冗余,这 样空调发生故障后,每一块区域内的服务器才是安全的。杭州电信的兴议、滨江 等 IDC 机房,就以四列的机柜为一个分区,然后按照每个分区都满足 N+1 的冗余 方式配置,是一种比较安全的办法。

数据中心冷冻水制冷系统的节能分析

数据中心冷冻水制冷系统的节能分析

数据中心冷冻水制冷系统的节能分析摘要:在数据中心节能降碳节水的大背景下,梳理了数据中心传统冷冻水系统的原理,冷水供、回水温度从15/21℃调整为18/24℃时,提升了冷水机组性能系数、延长了冷水系统自然冷却的时间,对降低制冷系统的PUE值有明显效果。

最后简要介绍了液冷和氟泵技术,未来有望代替冷冻水系统,实现更低的PUE值。

关键词:数据中心冷冻水系统 PUE 液冷氟泵0概述数据中心是典型的耗能大户,随着“双碳”战略目标的推进,各地纷纷加强了对数据中心能耗的监管,表现在PUE(Power Usage Effectiveness,电能利用效率)数值上,对PUE值的要求越来越低。

数据中心冷却系统运行带来的非生产能耗占数据中心总能耗的40%,降低这部分能耗是提高数据中心能效的重要研究方向。

数据中心内服务器耗电产生大量的热,在水冷系统架构中,散热终端冷却塔利用水蒸发吸热将冷却水中储存的热量释放到大气中。

笔者通过对数据中心冷冻水系统架构的总结梳理,分析了潜在的提高制冷系统能效,降低系统PUE[2]的措施。

1冷冻水系统架构原理如图1所示,数据中心冷冻水系统架构原理图,末端精密空调冷水盘管和机房内回风换热,通过水流将热量带到冷水机组,经制冷压缩后散热到冷却水中,最后在冷却塔蒸发散热到大气环境中。

为了充分利用自然冷源,常用板式换热器串联冷水机组的架构,根据室外湿球温度的变化,制冷系统可运行在免费冷、预冷及机械制冷模式。

图1冷冻水系统原理图笔者从事的项目多采用中温冷冻水温度15/21℃,冷却水温度33/38℃。

以华北项目为例,冬季冷塔选型湿球温度为8℃,冷塔出水温度13.5℃,考虑板换换热温差1.5℃,可满足二次侧冷水温度15/21℃的要求。

湿球温度为14℃时,冷却水出水温度约19℃,考虑板换的换热温差,二次侧冷水的出水温度约21℃,将不能对冷冻水回水进行预冷却。

因此当湿球温度低于8℃时,制冷系统运行在免费冷模式,冷却水系统通过板式换热器制取满足要求的二次侧冷冻水。

北京市某超算数据中心的空调设计

北京市某超算数据中心的空调设计

北京市某超算数据中心的空调设计摘要:本文以北京市某超算数据中心项目为例,介绍了超算数据中心空调及相关工艺设计方案,以及超算数据中心和常规数据中心在工艺布置上、空调方案选择上的对比,并提出了相应的措施。

关键词:超算数据中心工艺设计空调设计节能引言近几年,随着科技及数据中心行业的发展,以及大家对计算速度的要求提高,机柜中刀片数量和节点数量不断增多,为了满足高速计算的要求,超算数据中心得到了快速的发展。

超算数据中心具有高发热量,低散湿量,相关配套用房发热量也很大,其空调负荷特点为负荷量大,局部热点较多,通过常规的空调方式,例如:房间级空调、行间空调、背板式空调等已经无法满足机柜的使用需求,因此,液冷空调及液冷机柜能就近制冷,很好的解决了超算机柜发热量大、局部热点的问题。

本文以北京市某超算数据中心的空调设计方案为例,对超算数据中心空调设计进行分析,以便为今后的同类项目做参考。

1、工程概况该工程位于北京市,超算部分总建筑面积10500m2,地上两层,地下两层,其中:超算机房位于地上两层,相关变配电间、制冷机房等配套用房位于地下两层。

该工程超算机房总用电量24000kW。

超算机房布置平面图详见图1:图1 超算数据机房平面布置图2、超算数据中心的特点超算机房由计算机房(由计算节点柜、高速网络柜及动环设备机柜组成)、高压直流配电间、存储与管理机房、变配电室、测试及充液机房组成。

由于大型超算数据中心负荷加大,在供电困难且满足实际使用需求的情况下,对超算机房各个功能分区进行梳理,其中的计算节点机柜、相应的高压直流配电柜、AI设备机柜可以断电重启,可以单电源供电。

其核心部分:高速网络柜、存储管理机柜及为其配套的列头柜均应采用双电源供电,且一路为UPS供电,后备时间最少为30min。

根据《数据中心设计规范》GB 50174-2017[1]中,常规数据中心主机房的使用面积可按照下式计算:A=SN (1)式中:A 为主机房的使用面积,m2;S 为单台机柜(架)、大型电子信息设备和列头柜等设备占用面积,可取2.0m2~4.0m2/台;N 为主机房内所有机柜(架)、大型电子信息设备和列头柜等设备的总台数。

大连市某数据中心空调系统节能设计及经济分析

大连市某数据中心空调系统节能设计及经济分析
GON G Ye , ZHON G S h i — mi n E , H AN Ha i — qu a ห้องสมุดไป่ตู้ 3 1 S h a n d o n g To n g y u a n Gr o u p Co. , Lt d. 2 S ha n d o n g P r o v i nc i a l Ar c hi t e c t u r a l De s i g n I ns t i t u t e
e n e r y- g s a vi n g a i r - c o n d i io t n i n g t e c h no l o y , g he t d a a t c e n t e r e n e r y g c o ns e r v a io t n o f a bo u t 3 1 . 2 3 %, P UE i s a b o u t 1 . 3 48 . Ke ywor ds : at d a c e n t e r , re f e c o o l i ng , e n e r g y s a v i ng me a s u r e s , e c o no mi c a n d t e c h n i c a l nd i i c a t o r s
大连 市某数 据 中心 空调 系统节 能设计 及经济分析
宫晔 钟 世 民 韩海泉
1 山东 同圆设计集团有限公 司 2山东省建筑设计研究 院
3大连亿达名气通 数据 服务 有限公司

要: 通过对大连市某 数据 中心机 房能耗过高 的问题进行分析 , 确定 了冷却塔 免费供冷 的空调节 能方案 该 空 调节 能技术 能够有效解决数据 中心 高能耗 的问题 , 在不影 响可靠性的前提下空调能耗 的显著 降低 。 经计算分 析采

某数据中心空调系统设计

某数据中心空调系统设计

某数据中心空调系统设计
文韬
【期刊名称】《暖通空调》
【年(卷),期】2017(047)001
【摘要】介绍了某数据中心机房精密空调系统方案,概述了该系统室内设计参数、空调系统设置原则、空调风系统及冷却水系统设置,并对冷却水型恒温恒湿机房专用空调加闭式冷却塔系统方案与冷水型恒温恒温机房专用空调加风冷螺杆式热泵机组方案进行了对比.
【总页数】4页(P55-58)
【作者】文韬
【作者单位】上海航天建筑设计院
【正文语种】中文
【相关文献】
1.数据中心集中冷水空调系统设计要点 [J], 潘庆瑶
2.数据中心机房空调系统设计研究 [J], 孙大康;傅烈虎;花雨;赵鹏瑞
3.某数据中心空调系统设计及节能分析 [J], 李永飞
4.深圳某绿色低PUE政务数据中心空调系统设计 [J], 谭薇薇;邢云梁
5.海南某数据中心空调系统设计 [J], 张娴;戴新强;李翔
因版权原因,仅展示原文概要,查看原文内容请购买。

数据中心空调水系统供冷规模设计 叶明哲

数据中心空调水系统供冷规模设计 叶明哲

数据中心空调水系统供冷规模设计原创2016-04-12叶明哲摘要:数据中心水冷系统采用何种形式和规模建设,直接关系到数据中心建设投资的成本和运行的安全;本文主要对水系统供冷的规模和冗余情况进行阐述和探讨,并提出在大型数据中心基地可以采用区域供冷方式,设立两到四个独立的区域供冷中心,从而降低数据中心空调系统总投资和提升数据中心空调系统安全性。

供冷规模独立供冷区域供冷关键词1.数据中心空调水系统规模在大型数据中心,多幢数据机楼组成庞大的数据中心群机楼,制冷规模可以采用单幢数据机楼供冷或区域供冷。

如中国电信在建的云计算内蒙古园区,就由42幢楼组成,每幢楼约18000M2,需要多个供冷中心。

选择制冷中心的数量和制冷规模是必须要考虑的一个问题,这直接关系到数据中心的建设成本和空调系统安全性。

2.独立供冷(单幢机楼供冷)就是每一幢机楼设置一个单独的制冷机房,该制冷机房只对自己这幢楼进行供冷。

单幢机楼供冷系统比较简单,这有利于系统的维护和检修,当水系统发生故障时,只对该楼设备造成影响,不会影响到别的机楼,故影响面较小,是目前数据中心普遍采用的方式,下图1是独立供冷示意图:图1 数据中心独立供冷示意图但对于多幢机楼组成的数据中心,需要每个机楼均搞一个制冷机房,如云计算内蒙园区,按这种方式需要建42个独立的制冷中心。

这种方式导致制冷机房较多,相对占地面积较大,由于制冷机组多,操作维护工作量较大;而且各个供冷中心内部,为了安全,也需要考虑冗余和备份,导致投资过大。

2.1.独立供冷的系统冗余如果是A级机房(T4),水管管路必须是两个独立的系统,每个系统可以独立承担单幢楼数据中心所有的热负荷,运行时两个系统必须同时在线运行,单个系统故障不会对数据中心产生任何影响,这就是系统冗余。

每个系统都独立承担100%的热负荷,这就是1+1系统冗余,如图2,但是这样投资很大。

图2 系统1+1冗余示意图2.2.组件冗余如果不满足系统冗余,仅仅是部分组件故障有冗余,就叫组件冗余。

高层机房空调水系统维护经验交流

高层机房空调水系统维护经验交流

高层机房空调水系统维护经验交流
叶明哲
【期刊名称】《通信电源技术》
【年(卷),期】2012()S1
【摘要】考虑到通信机房空调水冷系统的特点,文章以浙江省第二长途枢纽大楼水系统运行维护和检修为例,介绍和探讨水系统的检修和维护方法。

【总页数】6页(P67-71)
【关键词】高层;水冷系统;维护经验
【作者】叶明哲
【作者单位】中国电信浙江省杭州分公司
【正文语种】中文
【中图分类】TN86
【相关文献】
1.高层建筑空调设备机房的减振降噪治理技术 [J], 卢凯
2.高层建筑数据中心机房空调设计 [J], 于亮
3.冷冻水机房空调与风冷机房空调的性价比分析 [J], 彭少华
4.关于水喷淋恒温恒湿空调系统维护管理的探讨 [J], 孙景励;孟辉
5.超高层空调机房空调水管道模块化预制施工技术 [J], 张金河;张永亮;陈云浩因版权原因,仅展示原文概要,查看原文内容请购买。

新型机房空调散热方式解决方案

新型机房空调散热方式解决方案

新型机房空调散热方式解决方案
叶明哲
【期刊名称】《通信电源技术》
【年(卷),期】2014(031)0z1
【摘要】通信的迅速发展,机房空调被大量使用,这些空调散热情况的好坏,直接关系到能源的消耗.一方面,由于空调数量过多,会遇到风冷机房空调外机布置上的难题,如机房空调外机布置在一个受限的空间,空调的散热受到严重的影响,空调能耗增加甚至无法正常使用等情况;另一方面在一些高层的枢纽楼里,又存在风冷机房空调外机无法布置的问题.本文介绍了有关冷凝器散热的一些解决方案,供大家参考和交流.【总页数】7页(P15-21)
【作者】叶明哲
【作者单位】中国电信股份有限公司杭州分公司,浙江杭州310000
【正文语种】中文
【相关文献】
1.一种数据机房散热方式节能解决方案 [J], 孙铁柱;毛彬
2.基于对流辐射耦合换热的新型数据机房空调系统 [J], 刘宏宇; 程远达; 杜震宇; 李国柱
3.面向边缘业务的汇聚机房空调解决方案探讨 [J], 姜宇光;罗海亮;程磊
4.一种新型数据机房空调机组智能群控方法 [J], 徐东雨
5.陶氏公司携新型可持续解决方案亮相2019年中国国际橡塑展通过创新解决方案和最佳实践与商业伙伴密切合作 [J],
因版权原因,仅展示原文概要,查看原文内容请购买。

浅谈数据中心给排水设计

浅谈数据中心给排水设计

浅谈数据中心给排水设计浅谈数据中心给排水设计1. 绪论数据中心是现代信息技术发展的重要基础设施,其正常运行对于企业和组织的运营至关重要。

而数据中心的给排水系统是保证数据中心设备和设施正常运行的关键要素。

本文将对数据中心给排水设计进行详细的探讨和分析,以帮助读者更好地理解和应用数据中心给排水系统。

2. 数据中心给水系统设计2.1 给水系统基本概述2.2 给水系统设计原则2.3 给水系统设备选型及布置2.4 给水系统管道设计2.5 给水系统自动化控制及监测3. 数据中心排水系统设计3.1 排水系统基本概述3.2 排水系统设计原则3.3 排水系统设备选型及布置3.4 排水系统管道设计3.5 排水系统排放标准和处理技术4. 数据中心防水设计4.1 防水设计原则4.2 防水材料选型及施工要求5. 数据中心雨水收集设计5.1 雨水收集系统基本概述5.2 雨水收集系统设计原则5.3 雨水排放标准和处理技术6. 附件本文档附带以下附件:附件一:数据中心给水系统设计图纸附件二:数据中心排水系统设计图纸附件三:数据中心防水施工方案7. 法律名词及注释7.1 数据中心:指用于存储、处理和分发大量数据的专门设备和设施的综合性建筑。

7.2 给排水系统:指用于供应和排除水的系统,包括给水系统、排水系统和雨水收集系统。

7.3 设备选型:指根据项目需求和技术规范选择合适的设备及其配置。

7.4 管道设计:指根据流体力学原理和工程要求进行管道尺寸、布置和施工等设计工作。

7.5 自动化控制:指采用自动化设备和控制系统实现对给水系统的监测和控制。

7.6 监测:指对给水系统的各项参数进行实时监测和分析,以保证系统的正常运行。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数据中心空调水系统供冷规模设计
原创2016-04-12叶明哲
摘要:数据中心水冷系统采用何种形式和规模建设,直接关系到数据中心建设投资的成本和运行的安全;本文主要对水系统供冷的规模和冗余情况进行阐述和探讨,并提出在大型数据中心基地可以采用区域供冷方式,设立两到四个独立的区域供冷中心,从而降低数据中心空调系统总投资和提升数据中心空调系统安全性。

供冷规模独立供冷区域供冷关键词
1.数据中心空调水系统规模
在大型数据中心,多幢数据机楼组成庞大的数据中心群机楼,制冷规模可以采用单幢数据机楼供冷或区域供冷。

如中国电信在建的云计算内蒙古园区,就由42幢楼组成,每幢楼约18000M2,需要多个供冷中心。

选择制冷中心的数量和制冷规模是必须要考虑的一个问题,这直接关系到数据中心的建设成本和空调系统安全性。

2.独立供冷(单幢机楼供冷)
就是每一幢机楼设置一个单独的制冷机房,该制冷机房只对自己这幢楼进行供冷。

单幢机楼供冷系统比较简单,这有利于系统的维护和检修,当水系统发生故障时,只对该楼设备造成影响,不会影响到别的机楼,故影响面较小,是目前数据中心普遍采用的方式,下图1是独立供冷示意图:
图1 数据中心独立供冷示意图
但对于多幢机楼组成的数据中心,需要每个机楼均搞一个制冷机房,如云计算内蒙园区,按这种方式需要建42个独立的制冷中心。

这种方式导致制冷机房较多,相对占地面积较大,由于制冷机组多,操作维护工作量较大;而且各个供冷中心内部,为了安全,也需要考虑冗余和备份,导致投资过大。

2.1.独立供冷的系统冗余
如果是A级机房(T4),水管管路必须是两个独立的系统,每个系统可以独立承担单幢楼数据中心所有的热负荷,运行时两个系统必须同时在线运行,单个系统故障不会对数据中心产生任何影响,这就是系统冗余。

每个系统都独立承担100%的热负荷,这就是1+1系统冗余,如图2,但是这样投资很大。

图2 系统1+1冗余示意图
2.2.组件冗余
如果不满足系统冗余,仅仅是部分组件故障有冗余,就叫组件冗余。

B级机房(T3),水系统管路也需要设计为两个系统,但是主机和末端可以公用,运行可以采用主备用方式进行,支持有计划的系统检修;组件冗余就是系统中常用的组件考虑冗余,如水泵采用N+1方式,冷机采用N+1方式,冷却塔采用N+1方式,机房空调采用N+X方式,这些就是组件冗余。

2.3.系统冗余和机组冗余投资比较
采用高标准,势必会带来投资的增大。

采用系统冗余的投资很大,从纯正的字面理解,双系统可能是单系统200%的投资,但如果合理设计系统冗余,达到A级标准(T4)的同时,也是可以大幅降低初期的投资费用。

对于B、C级机房,机组不需要系统冗余,只需要考虑机组的冗余,一般采用的N+X 冗余,X=1~N,从实际运行来看,当N值较少时(N<4),2台机组同时出现故障的几率非常低,x取1基本已经可以应对突发故障情况。

对于部分重要机房,不严格按照A级机房设计的,而又需要提高可靠性或者负载扩容的,可以先按照N+1配置,但预留扩容一台机组的位置。

3.区域集中制冷
单幢机楼供冷有一个缺点,就是1幢楼有一个制冷中心,如果数据中心够大,那建设的供冷中心就会足够多,如云计算内蒙云园区,按照单幢楼供冷的特点,需要42个供冷中心,而且各个数据中心内部需要冷机、水泵、冷塔、管路的冗余和备份,这些备份和冗余在各个
数据中心之间无法实现共享,导致设备投资的大量浪费。

以T4标准的数据中心举例,每幢楼建2个独立的水系统,2幢楼就需要4个独立系统;如果能够以两幢数据中心为单元进行数据中心建设,A楼的水系统作为B楼的备份,B楼的水系统作为A楼的备份,这样系统就会简单的多,每个楼只需要建一个水系统就可以了。

区域供冷是指若干数据机楼统一由两个或几个专门的大型制冷中心进行供冷,通过管道把制取的冷冻水送到每一幢数据中心机楼,如图3,如果数据中心区域供冷,相比民用区域供冷,优势更为明显:数据中心发热量大,建筑集中,该种方式统一设置冷冻站,减少机组占地面积,集中供冷有利于提高机组的负荷率,冷源效果高,可获得更大的能效比;其次数据中心集中冷源站占地少,降低了冷源设备的初投资;另外数据中心区域供冷减少了机组备用数量,相对减少机组的投资;集中操作和运维,易于优化控制和维护管理,可以减少运维人员。

还有一个因素就是冷冻水输送管路的增长,超过4公里会导致水泵功耗上升,使得区域供冷在民用范围受到一定制约,而数据中心机楼集中布置,发热量高,使用区域供冷具有更明显的优势。

图3 区域集中制冷示意图
日本是国际上对区域供冷系统实践较早的国家,技术、经验相当成熟,采用区域供冷后,日本新宿新都和日本东京晴海Triton广场就采用区域供冷供热系统,该些区域供冷供热系统的年均一次能源能耗COP达到1.19,高居日本全国区域供冷系统第1、2位。

表4 日本某区域供冷情况
广州大学城区域供冷则是亚洲规模最大、世界第二大区域供冷系统,图4,整体整个系统建有4个冷站,空调负荷主要是10所高校的教学区和生活区大楼以及两个中心商业区供冷。

整个系统由冷站、空调冷冻水管网及末端供冷系统三个子系统组成。

该区域供冷总装机容量10.6万冷吨,蓄冰规模26万冷吨,供冷总建筑面积达350万m2。

图4 广州大学城区域制冷中心(图片来源:网络)
4.区域供冷设计
对于数据中心机楼群,因为数据机楼集中,而且发热量大,采用区域供冷更具有优势,图5,在建设有热电冷三联供区域的地方,也可以采用溴化锂制冷,降低电网压力;在能够利用自然冷源的场合,如利用低温湖水供冷的,也可以考虑采用区域供冷方案。

从区域供冷的实际使用情况来看,水管的距离不宜过长,否则会导致水泵耗能增加,最好控制在4公里,流量不宜太大,最好采用二级泵设计,这样可以降低水泵的消耗,这些条件均适合数据中心。

图5 数据中心区域供冷示意图
如果考虑系统冗余,数据中心区域供冷就需要两个制冷中心,组成2N系统,每个冷冻站制冷能力可承担100%负荷,如图6:
图6 数据中心区域供冷1+1备份示意图
目前中国电信云计算内蒙园区42幢机楼,每幢机楼一个冷冻站,每个冷冻站安装4台1200冷冻水机组(三主一备),相当于建设42个冷冻站,一百六十多台冷冻机组,由于每个机楼负荷不同,这些冷冻站输出也不相同,导致冷机效率也不仅相同,如1200冷吨离心机组满载效率为0.6KW/冷吨;当部分负荷时,效率为0.8KW/冷吨,如果采用区域供冷,设立二个冷冻站,如图7,就可以达到T4标准,而且采用2000冷吨以上的离心机组,冷机满载效率上升到0.52KW/冷吨,故可以节约大量的能耗,另外两级泵设计,可以降低输配系统的能耗,加上冬季采用冷却塔供冷技术,节能的效果会更加明显;另外可以节约多达42台备用冷机的投资,同样的相应的备用冷却塔、备用水泵的投资也可以降下来。

图7:数据中心设置2个冷冻站示意图
考虑到现在云计算园区的制冷需求非常大,也可以设计成多个冷冻站,每个冷冻站承担33%的园区负荷,这样可以进一步降低投资成本,如图8:
图8:数据中心设置4个冷冻站示意图
5.结束语
相比单幢楼供冷,采用区域供冷的好处很多,比如节省用地,以及减少运行管理人员数量从而节省高额人工费,同时还采用了多种先进的节能措施来减小空调系统的能耗,比如冷机可以采用高压冷机降低配电能耗,也可以集中设置蓄冷罐,提升水系统可靠性等等。

数据中心采用区域供冷不利的是初期的管路投资会增大,水系统较为庞大和复杂,一旦水系统故障,影响和波及面大,检修也不易,目前国内数据中心采用区域供冷案例基本没有,设计、建设和运维人员对区域供冷还比较谨慎,但随着设计技术的进步,建设水平和运维水平的提升,相信不久区域供冷会在大型数据中心推广使用。

参考资料:
清华大学:石兆玉《供热系统分布式变频循环水泵的设计》。

相关文档
最新文档