数据中心面临制冷难题

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

• 现在,Байду номын сангаас些企业数据中心和一些对外提供托管服务的IDC开始对用电 情况进行监测,并把它作为数据中心的依据之一,而它们在以前只是 按照租用空间收费的,根本就没有考虑到底用多少电。更大胆一些的 IDC则针对大客户采用根据用电量决定收费多少,由用户先提出最高 要用多少电,IDC再据此给其分配相应的空间。
• 今天,很多IT设备供应商的产品是按最高热密度设计的,用户往往也 愿意为了节省机房地面空间而购买更贵的适应高热密度环境的服务器 等设备。因为很多机房的收费是按照占用的机房空间来计算的。殊不 知,更高的用电量会带来电力分配设备和制冷用电量的相应增加,由 此导致电能利用率下降。实际上,营运成本中80%会随着用电量的增 加而增加,比如机电基础设施必须为机柜输送所需的电力,同时为这 些机柜内的设备制冷。
• 按用电量付费
• 而不是空间
• 不过,指望客户不仅知道他们需要租用什么样的设备,还要了解安装 了这些设备的机柜大约需要用多少电,似乎不太现实。
• “对于某些客户来说,这是非常现实的,”从事服务器托管服务的 Terremark公司的高级副总裁斯图尔特反驳说。事实上,Terremark采 用这种方法也是响应客户的需求。“客户中有不少人找到我们说,他 们最多需要多少电,让我们为他们安排空间。”他说。如果客户不知 道他的机柜要用多少电,Terremark也会单独给这个公司配一根总电 缆,通过这个电缆为客户的机柜供电,到时用电情况也就清楚了。
从风冷换成液冷?
• 为了解决高热密度机柜中的热点问题,一些数据中心已经开始转向到液体制 冷。最常用的液体冷却技术称为紧耦合制冷,也就是用管道将冷冻液(通常 为水或乙二醇)输送到高架地板之上或者直接把冷冻液输送到机柜内部,然 后通过风和冷冻液之间的热交换达到给机柜内部降温的目的。库玛估计, Gartner 20%的企业在使用某种类型的液体制冷,至少在一些高密度的机柜 里已经用到了液体制冷。
• “很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特 说。
• Gartner公司的分析师拉克什·库玛说,从电力使用和成本的角度来说,功率 密度不可能无休止地增长下去。幸运的是,大多数企业的数据中心机柜的电 力消耗暂时还没有达到像ILM这样的水平。Gartner的客户中约有40%其数据 中心每个机柜的功率为8~9千瓦,而有些高达12至15千瓦,无一例外的是, 功率呈明显上升趋势。
• 格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本 变化不大,但由于功率密度增加而带来的运营成本却大大增加了。
• IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本 身,而是保证公司电力供应的设备成本以及相应的制冷成本。计算密度的增 加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。
• 虽然按照现在的标准来重新设计数据中心,能降低能耗和解决制冷的难题, 然而,单个机柜的功率却是越来越大,最新安装刀片服务器的机柜每个功率 已经超过25千瓦。在过去的5年里,IT一直在不断对机柜、高架地板等进行重 新设计以及对气流进行优化,最显而易见的成果是提高了电能的利用率。如 果机柜内的热密度继续上升,安装密封的围栏将是确保机房制冷的最后一招 了。
• Belady认为遏制计算密度不断上涨势头的最好方法是改变 数据中心的收费方式。微软如今已经改变了它的成本分摊 办法,不再是仅仅根据用户的占地面积和机柜的利用率来 收费,而是开始把用户的用电量考虑进来。而采用这种收 费办法之后,局面马上得到了改观,每个机柜的用电量开 始下降。“如果成本按照用电量来考核的话,机柜内的热 密度自然会下降。”他说。
• 自从微软开始按照用电量收费以来,其用户的关注重点从 在尽可能小的空间中获得最强大的处理能力转变为用最小 的电力消耗获得最大的处理能力。“这并不是说收费策略 改变后机柜内就一定不会出现高热密度,最终要取决于所 提出的解决方案总体能源效率。但是,如果你是按照占用 空间的多少收费,100%会导致高热密的。” Belady说。
• IBM的施密特认为,功率密度还有可能进一步增加,但数据中心的制 冷方案需要改变。
• ILM的数据中心完成于2019年,设计供电能力为每平方英尺200瓦, 从机房来说这个电力供应和制冷能力已经足够了,现在的问题是没有 方法能有效地解决高密度机柜内部的制冷。
• ILM公司采用了冷/热通道的设计,同时管理人员对通往冷通道的格栅板的数 量和位置进行了调整,从而对流经机柜内的气流进行了优化。即便如此,为 了避免机柜内的局部热点,空调系统必须保证整个13500平方英尺的机房不 超过18.5摄氏度。
• 克拉克知道这有些浪费,今天的IT设备设计运行温度高达27摄氏度以上,所 以他正在关注一种称为冷通道密封的技术。
• 实际上,已经有一些数据中心在试验对一些高热密度地方的冷热通道进行密 封,包括通道两端设上大门,为防止热空气和冷空气通过机柜顶端到天花板 之间的空隙混合,这些位置也用隔板封上。除了这些办法之外,有的数据中 心还让冷空气直接进入机柜底部,在机柜内与IT设备进行热交换,然后逐步 上升,最后通过机柜顶部的出口进入回风道,再通过天花板顶部的管道返回, 从而创造出一个闭环的制冷系统,彻底避免冷、热气流的混合。
• “冷/热通道的方法其实还是传统的方法,而不是最优的。”埃森哲数据中心技 术经理和运营经理Rocky Bonecutter说:“最新的趋势是铺设围栏,对冷热 气流进行分流。”
• 据惠普的Gross估计,如果数据中心利用这种技术,普通的机房空调系统可以 最高满足每个机柜25千瓦左右的制冷需求。“当然,这需要仔细地对冷热气 流进行隔离、防止串流,还要对气流路线进行优化。这些工作必须固定下来, 成为一种例行工作。”他说。
• IBM的施密特说,那些采用机房整体制冷的数据中心,尤其是那些为了应对 高热密度不得不采用更大的柜式空调的数据中心,采用液体制冷可以节省一 笔不小的电费。
• 但微软的Belady认为液体制冷仅限于一个相对较窄的领域:高性能计算。 “如果你想把制冷用的液体送到芯片,成本马上就会上升。”他说,“迟早 有人会问这样一个问题:这种方法成本那么高,为什么我还要用?”
相关文档
最新文档