加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长百科 > 正文

现场直播|百度资深系统工程师唐虎:《数据中心制冷——风/液架构演进》

发布时间:2018-10-18 12:02:06 所属栏目:站长百科 来源:中国IDC圈
导读:10月17日,2018年开放数据峰会(Open Data Center Summit 2018,下文简称ODCC)新技术与测试分论坛在北京国际会议中心举办。ODCC关注数据中心产业的各个方面,从国家政策和法规,到地方制度和项目,从产业全局发展到具体技术落地,从尖端热点技术到传统行
副标题[/!--empirenews.page--]

10月17日,2018年开放数据峰会(Open Data Center Summit 2018,下文简称ODCC)新技术与测试分论坛在北京国际会议中心举办。ODCC关注数据中心产业的各个方面,从国家政策和法规,到地方制度和项目,从产业全局发展到具体技术落地,从尖端热点技术到传统行业推广,从国内到国际,从宏观到微观,全力推动中国数据中心产业发展。

唐虎

以下为百度资深系统工程师唐虎给大家带来的《数据中心制冷--风/液架构演进》的精彩演讲。

大家好,我是来自百度系统部的唐虎,今天跟大家分享一下数据中心制冷风/液架构演进,液冷现在确实比较火,我尝试用自己的思考跟大家分享。任何一个技术最终能否规模应用,取决于是否适应规模的需求。

现在人工智能非常火,实际人工智能和液冷是强相关的事情。作为数据中心的从业者我非常感谢人工智能,如果没有人工智能,数据中心的需求越来越少,因为信息化足够普及,人工智能给所有公司带来巨大的空间,过去丢进回收站的数据搜集下来,花很大算力挖掘金矿。人工智能带来认知模型和预测模型,人工智能通过数据的挖掘能够让机器像人一样认识每个事物,一个显示器,一个汽车,像百度无人车,它需要知道车前方甚至360度四周看到的东西是什么,是小汽车还是货车还是路牌,这就是认知能力。认知解决的是通过算力寻找特征量与类别之间的关系,这个特征量代表的是某一种分类,是一个小汽车不是货车。之前大家有了解的话,对数据的需求量非常大,像谷歌早期训练一个猫的模型用到六万五千张猫的模型。第二个是预测模型,这点让人更兴奋,我们都知道如果你知道明天会发生什么一定会很开心,你先人一步。预测实际上解决的是特征量与未来值之间的关系,这里实际上可以简单介绍一下百度在很早期做人工智能的系统部做应用很实际的案例,一个温度计过去的温度数据注入到人工智能模型里面,可以告诉你未来20分钟的温度,准确率95%以上。对于无人车能让车知道它所看到的每一个物体,下一步可能出现的状态,决定当前的操作。一点不亚于最近各种圈非常火的波士顿机器人,所有一切都是算力,算力意味着什么?根据兰道尔极限原理,算力意味着能源的消耗,能源意味着热量,热量需要用到像我这样学制冷的人,我们实际上做热量搬运的,我们是搬运工,就能把服务器的热量搬出去。

在风冷时代解决的问题搬运的效率,怎么让搬运的效率最高,降低整个搬运过程中的温度记录,但是最简单粗暴的方法就是把它建到更冷的地方,让搬运这个温度的热量是正的温度梯度。如果这个房间的温度比外面还要热的话,这个热量是自动传递出去的,我不需要耗能的,所以大家把数据中心建到很冷的地方去。现在的问题是,如果数据中心的机柜密度上升之后,搬运热量的效率会存在什么问题?我们的机柜行业标准没有改变,当机柜的尺寸不变意味着通风率是一定的,开孔率是一定的,当服务器的出风速度是一定的情况下,要满足风力密度的上升只有两个方法,第一加大转速提供更大的风量,这意味着在端这一侧功耗上升。第二,降低出风温度,拉大传热温差,这就意味这在制冷的原端效率是降低的。系统的角度希望提高正向循环的全年占比时间,通过简单的模型看一看风冷的极限在哪里。20千瓦的时候整个系统级的功耗已经出现拐点,也就是说在20千瓦的时候,用风冷是没有办法去用传统的提高正向循环的时间占比提高冷冻水温度降低整个系统功耗。我说的系统功耗包含了服务器、风扇的功耗,大部分数据中心算PUE没有包含这一部分。越往20千瓦之上,拐点越来越提前,在10千瓦的时候,这个拐点还是在咽喉到25度,而在20千瓦到了19度。现在很多数据中心的供水温度是10、15、20、25望上逼近,这是风冷的极限角度。这里面没有提到另外一个因素,很多人说带来另外一个问题噪音,服务器是为人工作的,不需要守在那里听噪音。

液冷行业大家研究会发现,液冷厂比较TOP级的为什么做液冷,微电竞行业做液冷,为打游戏的电竞行业。电竞行业拼的是算力,计算机跑得比较快操作同样的情况下,赢的概率更大。电竞行业为什么普及液冷是最快的?人是需要坐在电脑前,如果是风能能解决,但是液冷很安静很舒服。数据中心实际不需要考虑噪音的因素,我们在这个模式里面没有考虑风速这个因素。实际上服务器一旦一个机房建成之后,很少有人进去。谈到液冷就要看一下液冷的优势和必然,空气搬运热量距离决定它的成本,液体搬运的时候液冷和风冷整个代际的跨代优势非常明显。我是一个40千瓦的机柜和4个10千瓦的机柜,哪个合算?这笔帐算起来非常复杂。这里面涉及到另外一个问题,V100 GPU拥有640个内核,我很早跟做硬件的人探讨这个问题,为什么要这样?为什么集这么多内核?什么原因?从技术的角度讲,信息计算就是在做数据的搬运,数据搬运的成本决定了它要高密度。我经常开玩笑说大家都是搬砖,搬的东西不一样,价值不一样。做热量搬运和数据搬运有了第一次紧密的配合,也让我们的价值体现得更重一点。

比较简约的液冷架构简图,实际无论是浸没液冷还是冷板液冷或者是其它的节点级的液冷,如果把这个机柜换成浸没机柜,所有的液冷都是这样简单的架构。这个架构也会存在很多问题,比如这个冷量分配单元应该放在哪儿,放在机柜里面还是跟室外的散热器结合成为一体,这个是很多因素会影响到他的选择。但是有一点可以很明确,液冷让制冷这个行业的两个子行业Server、空调,第一次有了紧密的接触,以前这两个子行业各干各的,服务器做server,空调就是做制冷系统,做空调末端,但是液冷让大家第一次有了紧密接触。分配单元成为系统心脏,实际对它的要求很简单,像人的心脏一样,绝对不允许骤停。

数据中心的液冷普及实际上影响因素非常多,但是我们整体从思路看下来,溶液是非常核心的一点。目前业界能够看到的很多溶液,分为几类,超纯水,水剂溶液、非水剂溶液,大家担心溶液的导电问题。超纯水是高电阻力的一种溶液,纯粹的H2O,里面没有任何其它的成份,它的电阻率达到10兆欧以上,基本达到10兆欧这个水平在电气工程当中认为它是绝缘体。还有一个优势,不需要人去制订标准,大家都可以拿得到,当然也会存在其它一些问题。还有一些溶液市场上见的比较多的水积溶液,去除钙镁离子,加上一些缓蚀剂、阻垢剂、杀菌剂,作为客户买三四家水积溶液,只有一个数据中心,不可能用三到四种,对非水剂溶液,人工化学制取,还有自然提取,有价格问题,还有长期稳定性问题,对系统的密封性要求更高。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读