阿里巴巴对外开源自研液冷数据中心技术,未来3-5年将实现风冷、液冷互换|钛快讯

阿里巴巴大概会花3-5年的时间,让阿里巴巴部署的所有数据中心能够做到风冷、液冷互换的状态。即任何部署有风冷的区域都可以部署液冷,最后阿里会逐步淘汰风冷技术,把更节能的液冷变成数据中心的默认配置。

阿里巴巴服务器正在使用液冷方案降温

阿里巴巴服务器正在使用浸没式液冷方案降温

日前,阿里巴巴宣布将“浸没式液冷数据中心技术规范”向全社会开放,该规范旨在用一套标准流程为下一代绿色基地型数据中心的建设提供设计依据。阿里巴巴开源的整套规范,涵盖了数据中心的设计、施工、部署、运维等各个环节,打破了我国液冷数据中心建设无标准可采用的空白。

浸没式液冷是相对于传统风冷而言的,它是将服务器放置在特殊绝缘冷却液中,以达到为服务器降温的目的。这种方案使得服务器运算产生的热量可被直接被吸收进入外循环冷却,全程用于散热的能耗几乎为零。这种形式的热传导效率比传统的风冷要高百倍,节能效果超过70%。

PUE是评价数据中心能源效率的通用指标,数据中心的PUE值越接近1,就表明该数据中心绿色化程度越高。从2010年开始,我国相关部门开始发布绿色数据中心的相关政策。2017年,工信部首次将数据中心纳入国家新型工业化产业示范基地创建范畴,并提出了评选国家新型工业化产业示范基地(数据中心)的绿色条件。据中国信通院云大所所长何宝宏介绍,该评选的硬性指标是,大型数据中心的年均PUE要≤1.5,且IT负荷要达到40%以上;中小型数据中心,年均PUE≤1.7,且IT负荷要达到50%以上。

钛媒体了解到,采用了阿里巴巴浸没式液冷数据中心技术规范建设的数据中心,PUE值将会逼近理论极限值1.0,单机柜功率密度也会提升30%以上。采用液冷技术之后,IT部件故障率将会大幅降低,减轻了运维难度,在部署上效率也更快。

通俗来讲,阿里巴巴是将自己建设浸没式液冷数据中心集群的各方面经验公布了出来。“浸没式液冷数据中心集群的硬件建设,阿里巴巴实际上付出了研发成本、时间成本、金钱成本,现在我们把这个这个规范开源以后,最终用户可以享有我们在这个过程探索出的各种成果。”阿里巴巴基础设施首席架构师&IDC总经理高山渊在接受媒体采访时表示。

以光模块为例,浸没式液冷数据中心集群建设的过程中,阿里巴巴花了近一年的时间与各个厂商做多版本的光模块的改版。在规范开源之后,业界可以直接采用阿里巴巴的探索成果。

高山渊还透露,阿里巴巴大概会花3-5年的时间,让阿里巴巴部署的所有数据中心能够做到风冷、液冷互换的状态。即任何部署有风冷的区域都可以部署液冷,最后阿里会逐步淘汰风冷技术,把更节能的液冷变成数据中心的默认配置。

据了解,2016年,阿里巴巴就推出了全球首台浸没式液冷服务器,将服务器被浸泡在特殊的绝缘冷却液里,目前,阿里巴巴张北浸没式液冷数据中心集群已经投入使用。

会议当天,阿里巴巴联合ODC(开放数据中心委员会),与英特尔、希捷、西部数据、3M、思科等多家产业链内供应商共同发布了浸没式液冷数据中心技术开源规范,这些供应商将按照该规范生产出一批商业化产品。

本文系作者 DeepWrite秦报局 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
  • 给小编加鸡腿🍗
  • 爱了爱了😁
  • 挺有深度的,不错
  • 紧跟时事,赞一个👍🏻👍🏻
  • 真不错,收藏了
  • 写的很不错,关注了
  • 都没有那么简单
  • 这么厉害的吗
  • 学到了学到了
  • 商场如战场,竞争激烈啊
  • 行业发展都是有周期的
  • 企业的发展都不是一番风顺的
  • 说的好有道理😄
  • 内容值得人们反思
  • 数据还是很详细的
  • 内容很精彩,夸一夸
  • 又学到了很多知识
  • 内容很详细👍🏻
  • 小编辛苦了
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
57
53

扫描下载App