找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

微信名称:美国米群网

微 信 号:MeetQun

微信QQ:群: 320065698

查看: 164|回复: 2
收起左侧

[财经] 节能:数据中心的持久战

[复制链接]

638

主题

122

精华

2082

积分

米群网大牛

Rank: 6Rank: 6

积分
2082
发表于 11-21-2016 08:27 AM | 显示全部楼层 |阅读模式

亲!马上注册或者登录会查看更多内容!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

近日,工业和信息化部在其官方网站发布了《〈绿色数据中心先进适用技术目录(第一批)〉公示》。目录共分为制冷/冷却类、供配电类、IT 类、模块化类、运维管理类五大类别,涉及17项具体技术。

技术的进步使得数据中心在节能方面不断改善。去年3月份,工信部、国家机关事务管理局、国家能源局联合印发的《国家绿色数据中心试点工作方案》透露,随着信息化快速发展,全球数据中心建设总量已超过300万个,耗电量占全球总耗电量的比例为1.1%~1.5%,其高能耗问题已引起各国政府的高度重视。

“作为工业领域的大耗能产业,国家对数据中心节能发展非常重视,行业和用户也在持续关注,市场正在培养,发展潜力巨大。”在11月16日召开的中国数据中心节能技术大会上,中国电子节能技术协会数据中心节能技术委员会秘书长吕天文表示,节能现在已经成为数据中心重要的领域,甚至是着力点。

随着互联网、移动互联网、云计算以及大数据等应用的快速发展,全球数据中心的建设步伐正在加快,与此同时,数据中心的节能降耗问题也进一步凸显。在此次大会上,行业协会代表、专家学者以及企业界人士就如何降低数据中心能耗、实现绿色发展进行了深入的探讨。

挑战众多

我国数据中心发展迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%,其中大多数数据中心的PUE(电源使用效率)仍普遍大于2.2,与国际先进水平相比有较大差距,如美国数据中心PUE已达1.9,先进数据中心PUE甚至达到1.2以下。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比,PUE值越接近于1,表示一个数据中心的绿色化程度越高。可以看到,我国在降低能源消耗方面发展空间极大。

与此同时,人类社会从机械化、电气化、自动化一路走来,正迈进万物互联、万物智能的智能化时代,移动互联网、云计算、物联网等产业的崛起,使得需要节能改造的数据中心日益增多,据悉,2015年我国数据中心节能改造规模已达30亿元左右。“预计到2019年,全球数据中心基础设施市场规模将达到440亿美元左右。”华为技术有限公司高级经理高继军认为,无论是从厂商角度还是从客户角度出发,都应该去做更多的工作。

高继军同时指出,现在的数据中心存在很多挑战,前期规划难、建设周期长、质量管控难、人工维护难。“数据中心的运维成本70%是电费,主要是制冷能耗,全球数据中心电力消耗大约相当于7个大亚湾核电站的年发电量,总的耗电量非常惊人。数据中心的维护也面临巨大的风险,70%的故障是人为操作造成的,人员水平的差异、经验、熟练程度就决定了运维水平。”


“数据中心要节能,必须重视节能规划,在建设阶段不重视,以后再改建就难了。”数据中心节能技术委员会执行副主任张广明强调说。

规划指标不等于实际功耗

“自从政府呼吁数据中心节能降耗,许多PUE指标在3~3.5的数据中心通过使用高效的节能组织、优化设备运行状态、提高维护水平等,都将数值降到了2~2.5,这并没有难度。”张广明介绍,数值再往下降就没那么容易了,“要靠高效的供电、制冷设备,模块化技术,优化的方案来改善气流组织设计;利用自然冷源、智能管理系统等一系列措施来支撑”。

张广明估计,理想的数据中心能耗数值应该可以降到1.2左右,“这需要两项技术的叠加,一是去掉制冷系统,把自然冷源的温度提高到60~80摄氏度,这样数据中心即使建设到海南岛,全年也可以用自然冷源,不需要制冷;另外一项技术就是企业自主储能供电,去掉传统的UPS系统(不间断电源系统),供电系统效率就能从80%左右提高到97%”。难处在于两项技术都需要IT厂商参与,“制冷和供电技术设备厂商单独做不了,必须要多方配合”。

自从按照行业和政府部门要求,PUE要达到1.5左右,新设计和改造的数据中心的规划指标都齐刷刷降到了1.5,张广明不客气地指出,这太不正常,“PUE指标是个技术指标,不是政治和行政指标,目标的提出也要符合技术的发展规律”。

规划值难以达到,其不合理之处在于,在确定IT设备数量和用电规模时,当前普遍采用的方法会加大IT设备数量和用电量,使得在整个数据中心生命周期内IT设备用电量都达不到规划值。

PUE的规划指标不等于实际运行效果,IT设备功耗应该统一根据数据中心的性质、用途、等级提出最终的目标,根据设备的规格、型号、功能、数量确定功耗,但这种方法比较困难。现在的方法是根据数据中心的建设面积、主机房面积、机架平均占地面积、机架数与功率密度计算得到的数值,“虚得太多。”张广明指出。

另一方面,供电系统规划不能保证制冷系统的连续性,使IT用电量在整个数据中心生命周期内不敢增加到规划值。“不敢增加服务器,实质是不能保证电源能够连续运行、连续制冷,这是被动能源带来的问题。”张广明说。


“制冷系统规划欠缺也限制IT用电量在整个数据中心生命周期内都不敢增加到规划值。”张广明说。设备标称的制冷功率忽略了冷气利用效率,“制冷功率等于IT设备消耗功率是不对的,还应考虑传输的损耗、阻力等问题”。

液冷带来技术革命

“从目前国内外最新的研究进展来看,使用液态冷媒替代空气来对计算机设备进行冷却,是未来计算机设备的一场技术革命。”中科曙光数据中心产品事业经理刘广辉说。

从分类来说,液冷目前分为“冷板式液冷”和“全浸没式液冷”两大类。浸没式液冷就是把所有的热源浸没在冷媒液体里,通过液体的蒸发或流动把热量带走。间接式液冷是把一个装有液体的腔体和热源接触,通过腔体内液体的流动,将热量带走。

在实际应用中,冷板式液冷是比较普遍的设计,包括曙光在内的许多企业都有成熟的技术,特别是曙光的TC4600E-LP液冷刀片服务器已经实现了大规模量产,并将其成功应用在地球数值模拟装置原型系统、中国最大的电网仿真高性能计算平台等大项目中,获得了市场的充分认可。

近日举行的全球超算大会SC16大会上,中科曙光发布了E级计算系统的研发路线图,而E级计算的挑战首先就是解决能耗的问题。在考虑到冷板式液冷已经接近性能瓶颈,难以承载E级计算需求之后,曙光果断地选择了“全浸没相变冷却技术”作为攻关的主要方向。

“浸没式液冷特点是无色、无味、无毒、低温沸腾不可燃、不导电,但由于成本太高,目前市场上还没有产品出来。”吕天文说。

数据中心要节能降耗,如果单纯以耗电来衡量的话显然不充分。吕天文告诉《中国科学报》记者,数据中心的能耗不单纯是耗电,材料、人工、水、燃气都包括在内,“我们要利用契机将PUE指标丰富起来”。

“未来数据中心应该是单一产品建设。”吕天文畅想道,“节能理念从现阶段看,正在从房间型到微模块过渡。未来随着整体理念的发展,微模块会向堆砌型数据中心发展。未来数据中心将实现产品统一,我们可以像砌砖一样来堆砌数据中心,达到节地、节电、提高可靠性的目的。但技术的进步需要用户逐渐消化、吸收,新技术替换旧技术也有渗透率,这是一个长期的过程。”

0

主题

0

精华

4

积分

新米人

Rank: 1

积分
4
发表于 11-21-2016 11:37 AM 来自美国米群网手机版 | 显示全部楼层
cf85回帖支持!~~~
回复 支持 反对

使用道具 举报

0

主题

0

精华

2

积分

新米人

Rank: 1

积分
2
发表于 11-21-2016 09:16 PM | 显示全部楼层
感谢Cecil_Cai分享~~~
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表