加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程 > 正文

阿里巴巴参与了液冷数据中心规模部署实践计划

发布时间:2018-10-23 07:12:21 所属栏目:编程 来源:中国IDC圈
导读:随着互联网技术、云计算、物联网的发展,大家都知道已经进入了大数据的时代,从图中我们可以看到,预计到2020,每年将有超过500亿个设备连接到互联网并产生超过44个ZB的数据。增长的数据需要越来越多的计算能力来进行分析和处理。对于承载计算能力的服务器来
阿里巴巴参与了液冷数据中心规模部署实践计划浙我家(http://www.zhewojia.com)观点随着计算能力的提高,单芯片的功耗也在增加,同时从右边的图可以看到服务器的内部,除了单芯片增加以外,内部的密度也在增加,因此,从左下图可以看出单节点服务器功耗每年都在增加。最新一代服务器的功率甚至超过每个节点500 W,我认为这是保守的估计。 所以云计算令计算资源集中化,对服务器的运算能力提出了更高的要求,运算能力提升必然带来热密度的上升,对于承载服务器的数据中心会面临什么样的挑战呢? 第一个是高功率密度机架散热挑战,左边的图ASHRAE组织发布的一个统计预测,到2020年单机架功率密度最高会达到每机架40kw,显然这个是偏保守了,然而现在的数据中心大部分是每机架8kw的制冷供电能力,少数也有15千瓦左右,风冷不能满足可接受成本下的散热需求。显然,数据中心需要新的散热方法。 第二个是电力与冷却成本快速增长,左边是Uptime Institute 国际组织发布的调查报告,得出的结论平均的PUE是在1.8到1.9,只有6%以下的受访者声称自己的PUE是小于1.3的,左边的图是美国的劳伦斯伯克利国家实验室对PUE1.9的数据中心进行了能耗分布分析,其中47%是电力与冷却能耗,对我们新的数据中心也是一个相当大的挑战。因此,数据中心的制冷冷却能耗相当大:如何实现降低PUE和优化TCO?这已经成为一个新的挑战 阿里巴巴一直在服务器和新建数据中心思考这些挑战和问题,我们一直在不断探索和实践,这里重点讲一下为什么用浸没液冷进行规模部署。 首先说明一下,什么是浸没液冷?浸没液冷顾名思义,它和传统空气冷却不一样,它是用不导电的液体替代现有的空气冷却中的空气来对IT设备进行散热。站在数据中心的整体冷却架构上对比,浸没液冷对比空气冷却,它完全简化数据中心冷却系统:无冷机 、无末端空调、无服务器风扇。 同时我们自己也摸索探索了对于风冷、冷板和浸没液冷在各个维度的对比,以风冷的为基线这是0, +表示更优,-表示更差,从这个表中,我们可以看到,浸没冷在大多数项目中优于其他,当然世界上也没有是十全十美的解决方案,每个方案都有各自的问题和挑战。 另外,我们也都知道国内外有新建的一些数据中心,采用了新风冷却,但这样的自然冷却是依赖于气象条件的,我们不可能把所有的数据中心建在北方这种低温的环境,有数据中心必须要建在华南,那里气象条件又热又潮,电力价格、土地价格高,空气质量差;如何在这样的气象区获得低PUE与优化的TCO,是数据中心不得不面临的挑战。 接下来我们来比较浸没冷却和空气冷却的能耗,如图所示:例如,按照上述统计业界现有平均PUE为1.9,浸没冷却可以为1.09以下;考虑到服务器中没有风扇。总的来说,可以节省48.4%的功率。除了大幅降低能耗达到降低Opex外,另外无需制冷机组,无需末端空调,服务器无需风扇,还可以降低Capex,总体来说TCO应该优化。多少优化取决于各个公司的TCO模型。 另外除了节能以外,根据专家统计:. 每节约1度电,就相应节约了0.997千克二氧化碳(CO2)的排放,这样可以为社会的环保做出贡献。 在规模部署中需要考虑可靠性, 目前,空冷技术在电子设备中得到广泛应用。在电子产品的使用中,其复杂多样的环境是很难避免的。环境的多样性包括温度、湿度、振动、灰尘等。根据美国空军的统计(如图中所示,美国空军航空电子完整性计划),温度占55%(剩下的因素是灰尘6%、湿度19%、振动20%),从而导致电子设备的故障。浸没液冷是将IT设备完全浸没在电介质流体中,从而完全脱离空气。液体保护IT设备免受恶劣环境的影响。浸没冷却与空气冷却相比,消除了湿度、振动、粉尘对电子设备的破坏因素。虽然目前我们还不能提供令人信服的实测数据。从理论上讲,浸没冷却可以帮助IT设备获得更高的可靠性。同时,我们也在和CPU,HDD等部件厂商联合进行长期可靠性验证测试。 刚刚讲了这么多浸没液冷的优势,但也面临着很多的挑战。阿里巴巴在做浸没液冷也做了很多年,我们也在思考为什么浸没冷却虽然不是很新的技术,但是并没有在数据中心大规模部署。其实我个人分析有两点:第一个原因是空气冷却可以覆盖现有场景,现有的功率密度没有达到非要用浸没液冷才能解决,第二是它有很多挑战,我们现在的浸没液冷方式需要重构数据中心、重构服务器才能达到最优,这真是一个大项目。 阿里巴巴在浸没液冷技术中已有3年多的研究,包括材料相容性、箱体设计、液冷控制监控系统等。不仅仅是IT基础设施,甚至包括很多基础材料科学。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读