2014-08-04 20:27:33
来 源
中存储
数据中心
在整个数据中心范围内都使用冷却空气仅仅只为了给部分体积小的设备降温,无疑是一种浪费。数据中心管理人员应该使用冷热通道的方法减少所需的冷空气量。

曾经有一段时间,在分布式计算数据中心机房配备空调(CRAC)系统,以维护IT系统的温度是相当常见的。但时至今日,因为其极高的能源消耗CRAC已成为数据中心的“坏孩子”。

电源使用效率(PUE) 是最常用来评估一家数据中心运作情况的指标(尽管在某些方面其存在严重缺陷),该指标使用数据中心的总能耗和由IT设备本身所消耗的能耗量之间的比率得出。当刚刚开始采用PUE作为衡量指标时,许多数据中心的PUE值都在3个以上的高分运行,有许多甚至达到5以上。即使是现在,根据研究机构Digital Realty trust的调研报告显示,全球已报告整体平均PUE值为2.9.

而另一项由Uptime Institute主办的研究,则得出了全球整体平均PUE值为1.85的结论。但问题始终是存在的,即数据中心每消耗一部分电力以为其IT设备供电,必然有部分的电力要用于数据中心设施本身。

想想看,IT设备包括数据中心所有的服务器,存储和网络设备。所有其余的电源使用都被计入所谓的“周边系统”,包括照明,不间断电源(UPS)系统损失和冷却。即使是一家大的数据中心也在努力使其照明和现代UPS系统的能源效率能够达到98%以上。而周边功率最大的用户是冷却。

现在,是时候让数据中心的冷却在您的控制之下了,其可能并没有一般IT专业人士所认为的那样难。

数据中心并不一定要非常冷

首先,时代变了。数据中心IT设备标准指导运行温度也已经发生了变化。数据中心不再需要保持17-19 ℃的空气环境温度。根据美国采暖,制冷与空调工程师学会(ASHRAE ,American Society of Heating Refrigerating and Air conditioning Engineers)最新的指导方针,允许数据中心环境运行最高温度达到20℃以上,在一些特殊情况下可以达到30℃,甚至40℃。这可以帮助数据中心运营商大大减少能源消费账单了。

但这并不是数据中心运营商们所能做的全部。其实有一整套的冷却方案值得数据中心运营商们借鉴,以便产生快速的投资回报。

集中冷却最需要冷却的地方

在整个数据中心范围内都使用冷却空气仅仅只为了给部分体积小的设备降温,无疑是一种浪费。数据中心管理人员应该使用冷热通道的方法减少所需的冷空气量。这可以通过具体的解决方案或者将机架系统的行与行之间的空间覆盖耐火材料,在每一端使用阻燃聚丙烯来实现。检查机架以确保冷空气通过冷通道传输到设备的热点但不绕过他们,但这可以方便合理地监测。

集装箱式数据中心

对于那些正在审查其基础设施,想要移动到高度机架,采用整体冷却的数据中心而言,集装箱式数据中心可能是一个很好的方法。

使用密封机架,如Chatsworth Tower系统,包括机架内本身的冷却,冷空气从堆栈的底部引入,而热空气从顶部离开。

来自诸如爱默生和APC这样的供应商所提供的系统,能够为机架冷却系统提供更多的工程解决方案,个别CRAC系统在机架行内,可以用更具针对性的冷却。

液体冷却和空气冷却

基于液体的冷却系统也卷土重来。后门水冷却器是一个适用的解决方案,涵盖了机架的背面,利用冷却空气去除多余的热量。其他系统直接作用于IT设备,使用负压系统,将水通过管道,所以即使发生泄漏,空气会被吸入系统而不是被水压排出来。IBM的Aquasar和Chilldyne就提供这种系统——但这些都是侵入性的,因为它们的使用需要使用的特定的翅片式换热器,被连接到被冷却的芯片。

其它系统,如Iceotope和liquidCool,提供完全将模块沉浸介电液体的有效方法去除热。Green Revolution提供了电介质使得设备可以浸没到液体,保证现有的设备能够继续使用。这些系统都可以除去热量,并可以在其他地方重复使用这些热能,例如加热的水被用于企业的其他部分。

室外空气冷却方案也是可以考虑的其他方案。在最北部的气候条件下,一年只有几天的时间外界温度是超过冷却设备需要的运行温度的。诸如Kyoto Wheel这样的系统允许外部空气以最低的成本被充分利用。

绝热冷却,这种方法让液体蒸发的环绕着需要冷却的物理设备的周围环境,适用于外界温度往往超过ASHRAE指导的气候条件下,或支持更为温和的气候地区,其室外的空气温度低于系统设备运行所需要的操作温度。如EcoCooling公司,Munters公司,Keysource公司,Coolerado公司就提供数据中心所使用的绝热系统。

其目的是最大限度地减少能量的使用,以保持数据中心的IT设备在其所设计的热参数访问内操作。使用上面提到的那些方法,像4D Data Centres这样的公司已成功地建造和运营出PUE值达到1.14的数据中心;而 Datum的数据中心运行的PUE值则为1.25 ;谷歌的PUE值是1.12左右。

这意味着,对于一家现有功率要求为1MW的大型数据中心,现在的PUE值是2,其中500kW能耗将用于IT设备消耗,而500KW能耗用于数据中心设施。通过审查冷却方案可以将PUE缩小到少于1.2.这样,同样500KW的能耗用于IT设备负荷,就只有不到100kW的能耗用于数据中心设施。在这种方式中,节约了400kW的电力成本。在许多情况下,企业都是采用的低成本,低维护的解决方案。

那么现在,是时候花点时间来回顾一下您企业数据中心的冷却方案了吗?答案显然是肯定的。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。