提高数据中心能源利用效率方法探讨
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2012.8
中国金融电脑
51
IT ���
IT Running and Maintenance
二、选址阶段
降低制冷系统的能源消耗是降低 P U E 值的重要手 段,其中最重要的方法是采用自然冷却技术以及利用海 以及利用海 利用海 水和潮汐发电、风力发电、太阳能等新能源,这两方面 与数据中心的地理位置密切相关。为更好地实施自然冷 却技术,在同等条件下,数据中心应建设在平均温度相 对较低的区域。例如,2012 较低的区域。例如,2012 低的区域。例如,2012 年 4 月初,谷歌宣布台湾彰 化数据中心已经正式开建,彰化数据中心将是第一个通 过夜间冷却和热能存储系统节能的数据中心。这也是谷 也是谷 是谷 歌在亚洲建立的第三个数据中心,其他两个数据中心位 于新加坡和香港,将于 2013 年投入使用。此外,谷歌 还宣布准备在船上建立数据中心,该数据中心将依靠海 水和潮汐发电,同时利用海水的流动对数据中心的机器 进行冷却。
转换至部分自然供冷模式) ;适合全年完全自然冷却的 时间是 1234 小时(当冷却水供水温度低于 10 C 时,冷
O
冻机停机,为全部自然冷却模式) 。自然冷却主要有以
52
FINANCIAL COMPUTER OF CHINA
IT ��
IT Running and Maintenance
金融自助服务与安全防范服务解决方案的领航者 迪堡公司独家栏目赞助
制冷能耗。在进行机房布局规划上主要有以下几方面 在进行机房布局规划上主要有以下几方面 主要有以下几方面 的措施。 (1)采用模块化的可扩展的电源和空调制冷架构, 根据安装的 IT 设备不同特点和功耗,划分高密度机房、 中密度机房、低密度机房。由于每个机房模块的设计供 电密度不同,制冷方案也不同,更加有针对性,避免了 冷量浪费。高密度机房(供电密度为 5. 0kV A /平方米 以上)主要安装刀片服务器,中密度机房(供电密度为 2. 0kV A /平方米左右)主要安装数据仓库等开放平台存 储设备, 低密度机房(供电密度为 1. 0kV A /平方米左右) 一般规划为主机房、网络机房、高端服务器机房和普通 机柜服务器机房。 (2)调整机柜布局, 实现冷热通道隔离, 实施冷(热) 通道封闭。 服务器机柜必须采用背对背的方式进行安装, 冷风从服务器前面进入,热风从服务器后面排出,这样 排出,这样 出,这样 可以保障相邻两排机柜的进风口温度较低 ,有利于服务 器内部散热,同时能有效利用冷却循环,达到机柜内服 务器的最佳冷却效果。在此基础上,对于高密度机房, 由于热气回流冷通道,造成冷通道多处中断,出现热点 时还需做吊顶,并实施冷(或热)通道封闭。若采用冷 还需做吊顶,并实施冷(或热)通道封闭。若采用冷 若采用冷 采用冷 通道封闭,机柜正面进风温度控制较好,但是机房周围 环境普遍较热,人员操作环境不如热通道封闭好。建议 在高密度机房中,可采用“双侧送风 + 做吊顶 + 热通道 封闭”的设计模式。 模式。 。 (3)采用末端气流组织的新技术。在房间级制冷架 构中,制冷架构可能由一台或多台机房空调组成,机房 空调提供完全不受管道、风门、通风口等约束的冷空气, 或者供风回风可能受到高架机房地板或顶部压力回风系 统的部分约束。机房空调机组可以安装在机柜之间,既 既 可以架空安装,也可以在地板下安装。与房间级制冷架 构相比,其气流通路较短,且更为明确。气流路径缩短 可降低空调风机功率,提高效率。行级制冷设计可以根 据目标机柜的实际需求确定制冷量和冗余度。行级制冷
架构可以应用于无高架机房地板的环境。在机柜级制冷 中,机房空调与机柜相关联,以冷却特定机柜为设计目 的。空调机组直接安装在机柜上或其内部。与房间级或 行级制冷架构相比,机柜级制冷气流路径更短,且定义 更为准确,使得气流完全不受任何设施变动或机房约束 条件的影响。机房的全部额定制冷量均可得到利用,并 可实现最高的负载密度(每台机柜最高 50 kW ) 。未来 制冷架构将会走向芯片级,也就是将冷媒直接送到最需 要制冷的芯片中,从而实现更精确的制冷。 中,从而实现更精确的制冷。 ,从而实现更精确的制冷。
提高数据中心能源利用效率方法探讨
中国工商银行股份有限公司数据中心(上海)
陈庆
据统计,数据中心的用电量已经超过全世界发电量 的 0. 5% ,在过去的几年里,一些金融数据中心面临用 里,一些金融数据中心面临用 ,一些金融数据中心面临用 电紧张的状况,有的金融机构启动了新一轮的机房扩建 工程。2012 年 2 月 7 日,经国务院批准,国家发改委、 中宣部、科技部等 17 个部门联合下发了《 “十二五”节 能减排全民行动实施方案》 ,组织开展企业、政府机构、 科技等 10 个节能减排专项行动,要求全社会参与节能 减排的工作,国家相关部门对数据中心能耗考核标准也 在制定中。数据中心作为能源使用大户, 在“绿色环保, 节能减排”的大环境下, 在降低运行成本的内在要求下, 应不断降低能耗,提高能源效率,从而建设新一代绿色 从而建设新一代绿色 建设新一代绿色 数据中心。
2. 合理进行机房布局规划,优化气流组织结构
U ptim e Institute 针对 19 家数据中心调查的白皮书 指出:一般室内仅有 40% 的冷空气能循环进入服务器发 挥冷却效果,因而造成数据中心很大的能源浪费。 通过 机柜、空调室内机的合理摆放,建立冷热通道,能够避 能够避 避 免气流的短路、受阻,优化气流组织,可节省 5% ~12%
4. 在建筑设计上降低能耗
在建筑设计上降低能耗主要是通过提高建筑保温性 提高建筑保温性 能,采用热回收技术和智能照明技术等。
四、运行阶段
1. 对现有应用进行整合和虚拟化
通过应用整合和虚拟化,减少 IT 设备台数,可提
2012.8
中国金融电脑
53
IT ���
IT Running and Mainten百度文库nce
O
三、规划设计阶段
1. 采用水冷空调系统和自然冷却技术
尽管国外数据中心早就采用水冷空调系统进行制 冷,然而在国内,2008 年以前建成投产的数据中心基本 上都是采用风冷空调系统。在使用风冷还是水冷空调系 统上曾经有过争论,人们主要担心的是供水无法保障以 人们主要担心的是供水无法保障以 主要担心的是供水无法保障以 的是供水无法保障以 供水无法保障以 及将水引入到机房后可能造成漏水等隐患。目前,相关 技术问题均已解决,2008 年以后建成投产的数据中心一 般都使用水冷冷水机组空调系统。 自然冷却指在冬季或者过渡季节,巧妙利用外界环 境温度, 在不启动压缩机的情况下进行供冷的一种方式。 根据上海的气象参数统计,一年中有 上海的气象参数统计,一年中有 有 26% 的时间可以 利用自然冷却。其中,适合全年部分自然冷却时间是 1064 小时(当冷却水供水温度低于 17 C 时,可以自动
高单位 IT 设备功耗的计算和处理能力,从而达到提高 数据中心能源利用效率的目的。目前,P C 服务器的虚 拟化工作已在工商银行大规模的开展,虚拟化比例达到 的开展,虚拟化比例达到 开展,虚拟化比例达到 70% 左右。工商银行 U nix 服务器的虚拟化工作也已经 启动。在 P C 服务器虚拟化工作的设备选型上,需要进 一步论证的是采用高配独立服务器还是采用高配刀片服 的是采用高配独立服务器还是采用高配刀片服 是采用高配独立服务器还是采用高配刀片服 务器。由于受网络分区等的限制,若使用高配刀片服务 器进行虚拟化,一次需投入多笼刀片机,且该批投入使 用的多笼刀片机仅能使用于同一网络分区的应用,灵活 性降低。同时,刀片机机笼是故障单点,相对于独立服 务器,可靠性也降低。另一方面,这两年用于虚拟化的 刀片机,一个机笼仅能安装四片高配刀片机,失去了刀 片机省电省机位空间的优势。在已建成的中、低密度机 房安装较多刀片机,使得机房局部供电和制冷的要求提 高,造成机房资源使用不均衡。因此,笔者建议仍以高 笔者建议仍以高 建议仍以高 配独立服务器为主进行虚拟化,在建成高密度机房后, 再采用高配刀片服务器进行虚拟化。
下几种方式。 种方式。 。 (1)采用间接自然冷却的冷冻水空调系统。这种方 式使用冷却水直接蒸发自然冷却,可在原有的冷冻水系 统上进行配置, 进行配置, 配置, 需要比原有设计配备容量更大的冷却塔。 通过使用板式热交换器,隔离了冷冻水系统与冷却水系 统并传递两侧的热量。目前这种自然冷却方式被大规模 的使用。 (2)采用新风自然冷却的系统。在冬季利用室外新 风通过热交换器间接冷却室内空气,达到节能的目的。 室外温度高时可开启“内循环”通过冷水盘管对机房提 供制冷。采用此系统不但可以进一步延长可以使用自然 冷却的时间,并且不会将室外空气直接引入室内,从而 造成污染甚至影响设备的运行安全和寿命。 (3)风冷冷水机组 + 干式冷却器的自然冷却方式。 在这种方式下,夏季供冷季(室外温度高于 15 C )采用
一、PUE 概述
PU E (Pow er U sage E ffect i veness)是评价数据中心 能源效率的指标,是数据中心消耗的所有能源与 IT 负 载使用的能源之比。 其中, 数据中心总能源消耗包括 IT 设备的能源消耗、
硬件资源进行整合,采用虚拟化、云计算技术,使用高 性能低功耗 IT 设备等。 简单地比较两个数据中心的 P U E 值不足以评价一 个数据中心能源利用效率,还需结合数据中心的计算处 理能力和虚拟化程度等,并且要结合数据中心建设的不 和虚拟化程度等,并且要结合数据中心建设的不 虚拟化程度等,并且要结合数据中心建设的不 要结合数据中心建设的不 结合数据中心建设的不 同阶段。
O
风冷冷水机组机械制冷冷源,负担全部供冷负荷;冬季 供冷季(室外温度低于 3 C )采用干冷器,利用天然冷
O
源负担全部供冷负荷;过渡季采用风冷冷水机组供冷和 干冷器提供的部分自由冷却模式供冷,由机械冷源和天 然冷源联合供冷,负担全部供冷负荷。整个供冷过程没 有直接的水资源消耗。 (4)带有自然冷却的干冷器乙二醇空调系统。这 种方式采用双冷通阀控制,可以实现尽可能长的自然冷 却。在室外温度高于完全自然冷却但又低于室内温度的 时候,可以实现混合自然冷却方式。该方式的优点是可 该方式的优点是可 方式的优点是可 以完全利用室外冷空气自然冷却, 而且是完全干式冷却, 无需消耗水资源。
3. 使用转换效率更高的配电设备
(1)采用新型 U P S 设备。由于 U P S 在整流、逆变 等过程中存在电能损耗,因此 因此 U P S 实际输出给 IT 负载 的功率会低于 功率会低于 U P S 本身容量。在通常情况下 U P S 转换 效率(即输出功率因数)在 0. 8 左右,新型的 U P S 输出 功率因数在 0. 9 左右,转换效率更高。在典型的负载下, 业界领先的新型 U P S 系统比传统的 U P S 系统的损耗低 50% 。另外高频 U P S 是未来发展方向,新建数据中心建 议采用更加节能高效的高频 U PS 设备。在 U PS 设备选型 时, 应关注的关键参数是低负载效率, 而不是满负载效率。 (2)使用高压直流供电技术。目前在服务器设备基 于直流用电的系统中,很多能量消耗在了交流 /直流的 转换过程中。Int el等公司提出采用 380V 直流供电技术, 简化供电结构,在 U P S 设备和 IT 设备间为 380V 直流 电力传送。实践证明,采用 380V 直流供电技术,可节 可节 节 省约 7% 的基础能耗和约 和约 约 33% 的空间,可靠性提高了 200% ,总供电容量节省了 15% 。
制冷系统的能源消耗、配电系统的能源消耗和照明安防 和照明安防 照明安防 系统的能源消耗等。P U E 数值越接近于 1,其数据中心 的能源利用率越是理想。目前,国内数据中心的 P U E 数值普遍在 2 以上,而新建数据中心的 P U E 设计指标 一般低于 1. 6。 提高数据中心能源利用率包含两个方面:一是降低 包含两个方面:一是降低 两个方面:一是降低 个方面:一是降低 方面:一是降低 数据中心 P U E 值,即在数据中心 IT 设备总能源消耗不 变的情况下,尽可能地降低非 IT 负载的能耗,包括制 冷系统、配电系统、照明安防系统等,采取的措施主要 是新的制冷技术,使用转换效率更高的配电设备以及优 ,使用转换效率更高的配电设备以及优 使用转换效率更高的配电设备以及优 以及优 优 化机房气流组织减少冷量浪费等;二是提高单位 ;二是提高单位 二是提高单位 IT 设 备消耗功率的计算处理能力, 采取的措施主要是对应用、