加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长百科 > 正文

现场直播丨施耐德电器全球数据中心科研中心技术总监林密:未来数据中心的创新

发布时间:2018-10-17 09:48:16 所属栏目:站长百科 来源:中国IDC圈
导读:10月16日,2018年开放数据峰会(Open Data Center Summit 2018)于上午在北京国际会议中心开幕。作为数据中心行业的一大盛事,ODCC每年都将汇聚数千名数据中心专家与几十名主流媒体。本届峰会时间为16日-17日,ODCC将发布最新研究成果,碰撞尖端热点技术,
副标题[/!--empirenews.page--]

10月16日,2018年开放数据峰会(Open Data Center Summit 2018)于上午在北京国际会议中心开幕。作为数据中心行业的一大盛事,ODCC每年都将汇聚数千名数据中心专家与几十名主流媒体。本届峰会时间为16日-17日,ODCC将发布最新研究成果,碰撞尖端热点技术,分享国际技术进展,展示主流产品应用。

在峰会上,来自施耐德电器的全球数据中心科研中心技术总监林密进行精彩演讲。以下为演讲实录:

尊敬的各位来宾,数据中心的各位同仁,大家中午好!我是林密,来自施耐德电气。
在大概十年以前,也就是2006-2007年的时候,云计算这个词才被我们创造出来,它之前并不存在于我们人类的语言之中,但是经过短短的十年,我们发现我们已经将一个并不存在的术语变成了完全实现的词语。在过去的十年里,我们取得了非常大的进步,如今我们已经开始讨论在智能数据中心时代,云计算向边缘计算的迁移,从今天的演讲当中也可以看到,我们有很多关于边缘计算的讨论。

施耐德电器全球数据中心科研中心技术总监林密

施耐德电器全球数据中心科研中心技术总监林密

与此同时我们也看到,如果我们将今天的数据中心物理基础设施的损耗加在一起,与十年前进行对比,我们数据中心物理基础设施的能效提升了近80%。也就是说我们数据中心的PUE降低了80%,这80%主要来自于四个方面,第一,我们对UPS技术的创新,在2007年的时候美国劳伦斯伯克利国家实验室,认为典型的UPS峰值效率为88.9%,如今我们实现了98.9%的效率,同时我们对数据中心的供配电架构进行了优化,大大降低了供配电系统链路的损耗。在制冷这边,在白区通过部署冷热通道系统,使我们能够提高IT的送风温度,这大大提高了末端空调的效率。另一方面,让我们的制冷系统更多运行在自然冷却的模式下,在中国的有些地区,比如乌兰察布、张北、阳泉等地区,我们实现了高达90%以上的时间运行在自然冷却模式下。

未来十年我们的创新在哪里?我们是否还有创新的余地?因为我们也相信我们的社会是不允许我们IT行业以他们消耗数据的速度来消耗能源,我们认为未来我们数据中心物理基础设施将具有更多的创新,这些创新来自于几个方面,物理基础设施与上游的电网和下游的IT更多的交互和融合,同时我们数据中心物理基础设施自身也将进一步优化。数据中心作为一项重资产的投资,我们的投资者都希望能够快速见到收益,所以我们有非常强烈的欲望来缩短部署周期,因此,我们未来考虑的是如何通过更加简单的数据中心物理基础设施的设计,来实现快速部署;同时我们也会进一步提高我们数据中心供配电系统和制冷系统的效率。举几个例子,在过去几年,模块化、标准化已经深入人心,我们将在这基础上进行预制化的设计,将所有的工作从现场的施工搬到工厂里进行预制,实现了数据中心建设的去工程化。传统的数据中心建设周期都在18个月以上,我们在思考能否将数据中心通过预制化的模式降低至7-8个月,我们也做到了,我们对土建的部署周期基本在4-5个月,利用2-3个月对我们的供配电和制冷系统进行现场拼接和调试,这意味着我们可以缩短近一年的部署周期。我们独立于机柜的通道封闭系统是未来白区优化的一个方向,因为通道封闭系统与我们的机柜进行了分离,可以先于我们的机柜进行部署或与我们的机柜同时进行部署,对于网络巨头采用整机柜服务器是非常有利的。早上张炳华主席也说了,我们截至目前部署了2.2万个整机柜的服务器。另外一个趋势,我们认为间接风侧自然冷却系统可以实现快速部署,解决了传统冷冻水系统部署周期上,后期运行维护困难等挑战;相对于直接新风系统,间接风侧自然冷却系统解决了空气污染的问题,不再需要百分之百的机械制冷作为后备,我们的研究发现它可以增加IT部署的容量15%-20%。

随着未来IT技术的快速发展,给我们物理基础设施带来的挑战和机遇有哪些?首先是未来不断提高的芯片的功率密度,使我们对于液冷的讨论越来越多。动态服务器,更多讨论能否采用软件的手段和锂电池储能的手段进行削峰。更加融合的IT基础设施,比如整机柜部署,比如边缘计算服务器部署,需要我们更加优化物理基础设施的设计。同时传统的服务器电源具有非常大的冗余设计,是IT额定负载的2-3倍,用户非常渴望能够在机柜级别进行整合。举几个例子,首先是深度学习、AI、机器训练、大数据、物联网,我们在未来需了更多的GPU和高功耗的CPU,这就是为什么谷歌提出了采用48V的供电取代12V的供电对芯片进行供电。左侧这幅图是过去40年我们芯片功率密度发展的历程,可以看到过去我们一直在控制芯片的功耗,我们通过控制芯片的频率来控制功耗,通过增加晶体管的数量来控制芯片的计算能力,也就是所谓的摩尔定律。随着对计算能力的大量需求,在世界范围内所有的芯片厂家,包括英特尔、英伟达的GPU、谷歌自研的TPU、华为自研的NPU,功耗会持续上升,未来需要更多的制冷和配电容量,当我们机柜功率密度超过20kW时,传统的风冷技术将面临占地、成本、噪音等挑战。对于液冷主要有两种解决方案,一种是芯片级液冷,一种是浸没式液冷。我们的服务器电源在机柜级别进行整合,对上游供配电的影响是什么呢?我们可以简化上游的配电系统,比如可以去掉很多的开关,可以去掉一路UPS,服务器电源的整合将获得非常大的节省。通过研究发现,它可以节省供配电系统25%的投资成本。未来电网的发展对我们物理基础设施带来的机遇和挑战是什么?微电网和智能电网的快速发展以及储能成本的降低,还有可替代能源,比如太阳能、风能的成本降低,使得未来在数据中心物理基础设施的储能将有更多的讨论,同时关于逆变器有了新的需求,我们将来有可能采用双向逆变器,既可以满足充电的需求,又可以满足放电的需求,还有软件定义电源在系统级的讨论。其实锂电池在20多年以前我们就开始使用,在索尼的DV里采用了锂电池,但是为什么锂电池并没有在数据中心广泛被推广,就是因为在那时候锂电池没有办法为我们UPS供应商提供基于成本、功率密度、能量密度、安全性、可靠性等方面的平衡。但是随着电动汽车和新能源的快速发展,它必将推动我们锂电池技术的快速进步和价格的降低。因此我们认为,在未来锂电池储能将具有更多新的应用。锂电池凭借其非常出色的特性,比如较高的能量密度、较长的生命周期、快速的充放电功能,必将取代传统的铅酸蓄电池,成为数据中心首选的电池技术。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读