加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长百科 > 正文

现场直播|腾讯高级规划师梅方义:《腾讯数据中心液冷之路》

发布时间:2018-10-18 12:03:39 所属栏目:站长百科 来源:中国IDC圈
导读:10月17日,2018年开放数据峰会(Open Data Center Summit 2018,下文简称ODCC)新技术与测试分论坛在北京国际会议中心举办。ODCC关注数据中心产业的各个方面,从国家政策和法规,到地方制度和项目,从产业全局发展到具体技术落地,从尖端热点技术到传统行
副标题[/!--empirenews.page--]

10月17日,2018年开放数据峰会(Open Data Center Summit 2018,下文简称ODCC)新技术与测试分论坛在北京国际会议中心举办。ODCC关注数据中心产业的各个方面,从国家政策和法规,到地方制度和项目,从产业全局发展到具体技术落地,从尖端热点技术到传统行业推广,从国内到国际,从宏观到微观,全力推动中国数据中心产业发展。

梅方义

以下是腾讯高级规划师梅方义为大家带来的精彩演讲《腾讯数据中心液冷之路》。

各位来宾大家下午好!很高兴ODCC的这次峰会快接近尾声了,还有这么多小伙伴在这里听我们的分享,看来大家对液冷这个技术还是持有相当的热情。

我是来自腾讯公司IDC数据中心规划组的梅方义,感谢ODCC给我们这次机会跟大家做一个技术分享。液冷这个技术大家都知道,不是一个新的技术,把这个技术应用到对可靠性安全性特别高的数据中心行业,这个还是有许多问题需要解决,这也是我们不断跟各位合作伙伴交流的原因。今天演讲的题目腾讯数据中心液冷之路,前面各位听到百度、阿里在液冷方面做了很多研究,腾讯在这方面也有一些自己的看法,我们有自己的实验室,同时搭建了液冷的demo。

数据中心的冷却之道,这是一个数据中心配套基础设施很重要的话题,这个问题伴随着计算机的诞生就已经产生。芯片在运作的过程中散热,这些年数据中心的冷却我们想了很多办法,力争花更少的成本去解决这个问题,也取得很多成效。从最开始水冷冷源加精密空调末端,直接新风、间接自然冷,包括采取很多措施,冷热通道密封、微模块、地板下送风、天花顶回风、列空间调、顶置空调。今天又面临新的问题,这几天ODCC峰会关键词,AI人工智能包括GPU,包括服务器功率密度不断急剧上升,这是我们面临的第一个问题。第二,能源和空间的成本越来越高,包括在北上广深这几个城市对电力容量的限制越来越严格。我们只能通过措施把PUE更多下降,才能把更宝贵的电力资源应用到IT侧。

面临这两个问题的时候,我们下一步的数据中心该往哪个方向变革?这个是我们需要思考的问题。通过大家的热情可以看出来,液冷是很不错的方向。

今天分享的内容有四个部分,什么是液冷技术、腾讯在这方面做了哪些工作、解决了哪些问题、未来的展望。我有个项目管理组的同事说项目需要技术支撑,你老是没时间,忙什么去了,我说我去搞液冷去了,他说,我知道,把服务器浸泡到水里。这个是大家眼中的液冷,没有接触到大数据中心应用的话都会停留在这个阶段。我说不是的,我搞的是板冷,他说我知道,就是大学时候搞的水冷机箱。这个认知并不是错误的,只能说是片面的。液冷分为以下几种,浸没式、冷板式、喷淋式,浸没式把服务器浸泡到矿物油或者氟化液,通过蒸发吸热。冷板式一种用冷却液流经贴合CPU,带走热量,通过热管转接一下。第三种喷淋式,维护更便利,散热效率高。这几种形式各有优缺点。

我对三种模式做了一个比较感性的比较,腾讯目前做的也是冷板式,只能拿到这一方面的数据。散热效率浸没式和喷淋式更高一点,浸没式相对来说更高一点。相对浸没式、冷板式技术成熟度还有监测成本、维护成本方面冷板式好一点,更接近于数据中心目前的架构。前面唐总讲了液冷的好处,这里简单做了一下总结,数据中心比较关注节能,液冷也是相对来说比风冷节约很多,用的是冷板,基于冷板式液冷介绍。供水温度达到35度,甚至40度,实现全年的自然冷,数据中心在制冷方面的能耗可以降到很低的程度。更稳定,降低芯片的运行温度,消除局部热点,器件稳定性提高。更高效,芯片运行温度降低,运行效率提高。这两项取决于CPU的运行温度,还有更低的噪音,我们进到一个机房特别运营商以前的交换机房,那个噪声对人的生理还是有影响的。还有更少的空间,40千瓦的负载,是四个10千瓦,还是一个40千瓦机柜,在空间成本很高的情况下肯定更愿意40千瓦一个机柜。所以液冷可以应对更高密度机柜,节约使用空间。

从上面的分析来说,液冷技术的应用场景还是很光明的,能够为我们带来很多实实在在的收益。机柜密度越来越高,机房占据越来越低,减少制冷方面的空间占用。

腾讯在液冷方面做了一些什么?首先在研究液冷的初期就要选择一种液冷模式,前面介绍有浸没式、冷板式、喷淋式,在浸没式的情况下一些通用的器件难以满足长期稳定工作,它的稳定性寿命受到影响。第二,很多大型的数据中心通过现有的厂房改造而来,那些厂房并不是说数据中心设计的,它的承重条件有限,如果用浸没式的话,大机柜里面盛满液体,对机柜要求很高。。另外浸没式维护难度比较大,通过吊臂吊起来,相对冷板式或者通用的服务器来说,维护的工作量还是会大很多。在这里不是否认浸没式液冷,后期我们开展这方面的工作,作为用户来讲选择更适合于我们的形式才是最重要的。鉴于以上情况所以我们选择冷板式开始液冷之路,

数据中心对安全性、可靠性要求特别高,作为腾讯来讲也是百万台服务器以上的互联网公司,我们新技术的应用都是非常谨慎的,每项新技术都会经历这几个步骤,实验室测试、小批量试用、大规模使用、持续优化。我们在实验室做过一个机柜的样机,经过测试,稳定性,采集的数据也非常不错。所以开始搭建液冷微模块,现在液冷微模块正在稳定试运行当中。

传统微模块大家很熟悉了,腾讯已经部署了将近2000套。微模块的好处大家很清楚,工业化、标准化、自动化、基建和IT分离、更快部署、灵活变化、更安全、更低成本,微模块遇到液冷会产生什么样的火花?一个传统微模块,加上液冷水分配单元,服务器水分配单元,加上二次循环管路就可以支持液冷服务器了。同时微模块是液冷很重要的载体之一,方便大家去部署。

这是搭建小批量部署的环境,上面有两个微模块,左侧是液冷模块,右侧是传统的风棱模块,通过同一个房间搭两个模块,来通过对比来探索液冷到底有多大的收益。

这是液冷液冷模块组成,包括一次循环管路、CDU系统、二次循环管路、机柜等。,二次管路和机柜的接口,其实整体的组成比较简单,但是在搭建微模块的过程中还是碰到很多问题。

这部分是我们碰到了哪些问题,解决了哪些问题,还有哪些问题需要大家共同推动。首先我们在搭微模块的时候考虑我们的新技术应用肯定要契合业务需求,这样才有应用场景。数据中心的特点需要安全稳定、节能环保、智能、便捷、灵活、成本、周期、可控,对液冷模块的设计也做了以下设置,包括双回路的供水,二次侧环管供液阀门隔离,让它的故障影响变小。包括快速接头可靠性、单机柜液隔离、液冷CDU水泵双备份、运行参数及漏液监测实时告警,服务器运行温度监测、二次侧管路采用不锈钢材质等。

节能环保,二次侧高温供液,可实现全年自然冷,二次侧采用成熟循环工质,满足环保要求。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读