关闭
登录账号:
登录密码:
验证码:
看不清?点击更换
从PUE看数据中心节能空间:有的放矢提升绿色增量
http://www.ccidcom.com 通信产业网_中国通信第一产经门户 2015-04-12 10:44 官方微博

  【通信产业网讯】(记者 徐姗姗)穹顶之下,节能环保呼声正高。无论是国家近年来对通信节能的一系列政策出台,还是工信部对数据中心市场的管理力度的提升,都促使业界对于数据中心节能的关注度持续走高。前不久,工信部、国家机关事务管理局、国家能源局联合印发了《国家绿色数据中心试点工作方案》,要求全面提升数据中心节能环保水平,再次掀起对于数据中心节能降耗的热烈讨论。

  节能潜力在哪?

  信息技术的发展带来数据业务规模的迅速扩大,根据Gartener的统计,超过100个机架的数据中心比例正逐年上升,预计到2016年可能达到61%。尤其是高功率、高集成度设备随之大量应用,更使得数据中心的电力消耗相当惊人。

  工信部公布的数据显示,我国数据中心发展迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%,其中大多数数据中心的PUE仍普遍大于2.2,与国际先进水平相比仍有较大差距。

  在前不久召开的2015数据中心产业发展大会上,中国信息协会副秘书长傅伯岩表示,我国数据中心产业高速发展中仍然存在着一定的问题和隐忧。仍有相当多的数据中心设计的PUE值没有达到1.5的规划要求,特别是中小型数据中心在绿色节能方面差距比较大。同时,数量庞大的老旧数据中心的改造任务也颇为艰巨。

  对此,中达电通关键基础架构产品开发处产品总监陈冰在接受《通信产业报》(网)记者采访时提到:“在几年前,国资委曾经对数据中心的能效水平进行过全面的调研,当时数据中心的PUE在2.6左右。而现在,一些中小型数据的PUE接近2.0,而一些高密度大型数据中心的PUE已经达到1.5或低于1.5。”

  在这种情况下,要大幅度提升数据中心的节能水平显然不是那么容易,因此,在提高运行效率、降低运营成本和节省能耗的多重要求面前,准确挖掘数据中心的节能潜力,有的放矢地进行改革尤为重要。

  来自清华大学建筑节能研究中心的江亿院士指出,当前若要降低PUE能耗,必须将机房各项实测PUE值分解,并逐个寻求降低能耗的原因及办法。对比现在同等环境湿度、温度下的机房用电量,要提升至PUE低于1.5的目标水平,冷却系统节能空间最值得挖掘,高效排热是数据中心可持续发展的关键;设备用电和配电系统的节能更多依赖于设备本身节能水平的提升;而数据中心整体来说则需要更加标准化、更多创新模式以及管理手段。

  高效制冷与自然冷却平衡

  数据中心的“冷暖”一向是最困扰运营者的问题。调查数据显示,62%的企业认为,他们的数据中心面临着诸如散热、供电、成本等问题;23%的企业认为,其数据中心供电和散热能力不足,限制了IT基础设施扩展或无法充分利用高密度计算设备。

  丹佛斯商用空调行业市场经理王军表示,数据中心冷却系统正面临四大挑战:服务器的热密度提高、硬件安全、能源使用效率以及环境法规。选择寒冷地区显然是建设绿色数据中心的有效方法。例如在电力资源较为丰富、气候寒冷的内蒙和贵州等地区,运营商建设大范围的数据中心集群,将PUE控制在1.5以下。但有许多具有靠近业务热点区域或靠近用户的数据中心,受到地址选择的限制,因此,冷却系统降耗还需要更多手段。

  在机房设计阶段,专用空调系统的选择上,应根据数据中心建设标准、建设规模、机房设备的使用特点、所在地区气象条件等,结合当地能源结构、环保规定等因素来确定。而机房内气流组织优化方面,“面对面、背靠背”方式的机柜布局和“下送风”等方式已被广泛应用。

  除此之外,要打败冷却系统这个“能耗老虎”,实现数据中心的高效制冷与自然冷却的平衡设计尤为关键。深圳市英维克科技股份有限公司副总经理王铁旺介绍,从冷却系统分析,要将PUE值从2降到1.5,就需要采用高效制冷技术和冷热通道封闭技术,再进一步降低到1.2,就要用到自然冷却。例如雅虎、谷歌的数据中心,其PUE值接近1.1,依靠的就是新风冷却系统,这是最直接的自然冷却方式,能够让节能水平突破性提升。

  整合更节能

  数据中心整体的节能从何入手?“要从数据中心整合、设备部署、治理模式和应用软件优化等方面引入创新手段建设或改造。”惠普资深数据中心专家龙旭东表示。

  整合的数据中心更节能。台达关键基础架构产品开发处经理戴林华提到,“互联网+”的时代对数据中心的要求最关键的就是整合,包括对分散的数据中心的整合、治理模式的整合和应用的整合。对于中小型数据中心来说,分散的IT治理模式使得新技术的引入和管理变革很难实现,能耗居高不下。目前互联网行业巨头一般都采用统一的设备采购模式并注重标准化,因此数据中心能够采用更高的部署密度,节能效果走在其他行业之前。此外,从IT设备本身来说,服务器是数据中心IT负载的最大耗电者,通过引入虚拟化技术等对应用进行整合,可以将原来最低20%的CPU利用率提升到高达70%,意义也不容小觑。

  此外,通过管理创新实现自动化,建立统一管理系统所带来的节能效果已经被业内公认。智能风扇、智能电源、智能制冷等芯片级的节能技术的引入也是管理创新的重要部分。

  加速标准形成

  除了数据中心本身IT设备、冷却系统、管理能力的提升,对整体产业,标准化的推进势在必行。对此,专家指出,目前,数据中心标准体系仍不够完善,标准工作尚不能满足产业界对数据中心绿色节能、服务质量、评估评测、数据安全等方面的需求。

  这也是绿色数据中心试点工作的重要内容之一。试点指出,计划到2017年,制定绿色数据中心相关国家标准4项,推广绿色数据中心先进适用技术、产品和运维管理最佳实践40项,制定绿色数据中心建设指南。随着政策的引导,数据中心标准加速形成,数据中心能效平均提高8%以上的目标将逐渐实现。

——链接:专家谈

  清华大学建筑节能研究中心江亿:

  冷却技术优化降低PUE

  在2015年数据中心产业发展大会上,清华大学建筑节能研究中心的江亿院士提出,当前若要降低PUE能耗,必须将机房各项实测PUE值分解,并逐个寻求降低能耗的原因及办法。

  为了说明这一点,江亿院士提出一个案例。以黄河流域以北的机房全年平均PUE等于1.25为目标,则各部分能耗分配将为PUE=1+0.15+0.08+0.02=1.25。这个数据意味着:IT设备电耗1000kw;冷却系统电耗150kw;输配电系统损耗80kw;照明等其他电耗20kw。对比现在同等环境湿度、温度下的机房用电量,要提升至目标水平,冷却系统节能空间最值得挖掘。

  因此,进一步分解冷却系统电耗的分配,应为PUE=0.02+0.02+0.11=0.15.即风机电耗20kW;冷冻泵电耗20kW;冷机+冷却泵+塔电耗110kW。从风机功耗上限、冷冻水泵电耗上限、室外气相条件及各地区自然冷源利用能力等相关方面进行分析,江亿院士认为,采用地板下送风方式的同时,通过改善服务器进风温度均匀性来提高供水温度到16℃,降低风机压头来有效降低输配能耗,利用间接蒸发冷却塔彻底实现防冻、提高制冷机运行时的COP,用自然冷源和机械制冷结合,通过这些手段,可以有效降低冷却系统能耗,大幅降低PUE。

    【欢迎关注通信产业网官方微信(微信号:通信产业网)】
    作者:徐姗姗来源:通信产业网
    责任编辑:婉蓉
    版权声明:凡来源标注有“通信产业报”或“通信产业网”字样的文章,凡标注有“通信产业网”或者“www.ccidcom.com”字样的图片版权均属通信产业报社,未经书面授权,任何人不得复制、摘编等用于商业用途。如需转载,请注明出处“通信产业网”。
    网友评论:
    请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
    评价:
    表情:
    用户名: 验证码:点击我更换图片 匿名发表
    合作伙伴: