加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 云计算 > 正文

【IDCC2020】有孚网络华北区、北京有孚云计算科技有限公司总经理商彦强:科技赋能新基建,扬帆数字新征程

发布时间:2020-12-13 15:35:33 所属栏目:云计算 来源:网络整理
导读:2020年12月8日-10日,第十五届中国IDC产业年度大典在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。以

汇报一下今年,这件事我给各位汇报过两次,云大所的领导们汇报过三次,今年年底可能有些朋友还不是很熟悉,我再稍微啰嗦两句。我们在去年疫情之前就联合云大所做一件事,也是基于一个实际情况,那个时候国家新基建的政策发布了,但是业内一直说全国很多地方不适合建大型的实时性数据中心,就是因为说网络传输质量时延、带宽、丢包的制约,有些计算力实时性强的,因为有些图像处理要求实时反馈的,我们做验证的,这种不适合放在比较西部。我们决定一起做这件事,这件事做的很不容易,我们一共用了三个月时间,信通院一直在加班。我们选了三家独立的数据运营商,13个城市,这中间一共用了三个月的时间,拎着仪表一个一个机房跑。我们怎么测的呢?13个城市,每个城市有几个不同的机房,形成一个网状的结构,A到B,B到C,整个过程我们拿到了大量的数据。这个数据整体得出一些很有意思的结论,但是更重要的关注了网络性能指标。我们实际分成两段,一段是服务器到服务器的,一段是ODF到ODF的,得出一个结论是全国整体的网络质量是非常不错的,从时延的角度很多地方超过500公里、800公里的两个城市之间时延也都在20毫秒以内,有的甚至几个毫秒。第二,机房内的这一段,让我们比较意外,它占用了很多的时延,有很多的机房内部实际上达到了30多个毫秒,这也就是刚才上一张图说的为什么业内在关注无损网络,无损网络就要解决这个问题。我端口插上去一直到ODF也存在对时延的极大影响。这项工作得到了好多朋友的支持,但是由于疫情的原因,有些场景的设计也不是很合理,我们和云大所郭亮总工程师一直商量,我们今后还会把这个工作继续进展下去,这项工作未来希望能够得到更多朋友的关注和支持。应该说整个全国很多省里的工信厅、通管局、数据中心上下游同仁非常关注这个报告,我们也定期的做了一些相应指标的发布,如果大家今后有需要,我们也可以一起再深入的探讨。

我个人刚才谈到了在线路侧、设备侧互联,完全为了满足大容量、视频、人工智能对于数据中心传送的需求。可以看到从线路侧的应用,这个地方红的400G,到2022年相关400G的产品能够得到很好的发展,甚至超越当前的主流传输速率100G。针对不同的架构,我们一直在说通信领域里以前有C0到C4的机房,我们打电话还很奢侈的年代,什么国际局、端口局到端局,实际上那个年代硬件和软件完全绑在一起的,我们刚才朋友们也谈到,今后完全由数据中心路由器支撑的扁平化的网络尽量压缩,网络跟网络之间根据业务不同传送的方式不一样,我们ODU的技术,最大提高了传送的效率。你需要什么样的业务,我就用什么协议,就解决了复杂的网络交换问题。

我给大家汇报一下有孚的情况。

目前建好的数据中心,包括一部分在建的,北京永丰,我在这个地方办公,这是三万八千平,6600个机柜设计,基本按照国家A级机房。我们最早在2017年底拿到了LEEDV4绿建认证,这是整个亚太地区数据中心领域第一块金牌认证,也正是因为这样的节能设计得到了很多高等级客户,像政府、金融、券商、头部互联网的城市核心,金融运算中心。我昨天还回到公司接待客户,是我们另外一个非常重要的合作伙伴它在走出去的时候,在国外开一个大型的贸易博览会带着很多商务厅的领导考察。这个机房目前正在建设中的有一部分,三分之二已经交付,我们在春节前后会再交付2100个机柜,也希望大家多多谈合作。今后还有更多的优化工作,包括一会儿谈到节能、制冷,跟人工智能、大算力有关的。

右边的四个是在上海,分别位于国定路,是我们最早在复旦边上,这个比较好,只有600个机柜,也是比较老的,我们也会拿它做很多老机柜、老机房的改造,这里有好多机会,邀请很多合作伙伴一起探讨。金桥、临港二期,2019年拿到第一批,现在已经交付了3000多架,二期也在建设当中,现在已经进展到很快,也有很多签约的客户,但是仍然有好多空余的机柜深汕预计明年开始进入实质性的设施进驻的阶段。

刚才谈到在有孚发展这些年以来,我们一直跟业界的合作伙伴共同推进了数据中心的智能化,数据中心的可视化的运维。我们和客户,包括商汤、腾讯、京东都是我们很大体量的客户,这些客户把自己研究创新的一些产品,我们给它们提供场景,大家一起在这个领域里商量怎么样能够更好用这些技术服务于超大型数据中心的运营。这是一个架构,三层,刚才谈到了数据就是采集、传输、存储、分析、反馈,只是放到数据中心硬件、软件、人员、物体环境中做一个赋能,整体的架构回头有机会我们可以在单独的场合探讨。我们在实施过程中碰到了很多问题,从网线的连接不顺畅到各种采集设备本身出问题,然后采集完之后处理反馈的时候。腾讯的企业微信也和我们的OA系统做了对联,日常也给我造成很多困扰,我每天基本要花一个半小时时间处理这些OA的问题,这是效率提升了还是把我捆绑了?我也很难说,这就是生活,这就是我们的工作。

进入一些细节,从有孚永丰机房做一个例子。实际是把热怎么样带走,把冷再带回来,这就是机房里面整个循环要达到的目标。这里有不同的介质,不同的方式,我就不展开了。但是怎么样做效率最高?这是在座的各位专家擅长的地方。

我们做了一件什么事呢?北京市经信局节能与利用处给我们发的,叫做绿色数据中心奖,第一批。这个投入还不小,我们在模仿机房的三分之一用了这种热管技术,一直在,我看他们用了一年多还在调。什么时候让这个很顺畅的吸到一定量之后上去变成气体,把热量散走,然后吸了热再下沉回到我的屋里,这个过程很麻烦的。我们在机房里部署了670多个室内的,五层楼的楼层放到了室外部分,整个热管风墙的工作机理是循环过程,它结合了风冷机组,我们是双模式的。右侧是我们的服务器散热,我们是封闭冷通道,热量从后面热通道排出来,经过了中间热管墙,大家看到我们的介质相当于把热量带走了,上升成为气态,气态到罐子之后开始排热,排完热自己变成液体,又往下掉,掉回来把冷风相当于吸过来了,冷风直接进入到精密空调的冷水进口出,从地板送冷风出来。如果冷量足够的话,这个空调是可以不开机的,就直接循环过去了。所以说通过这样一个原理达到了实际节能的目的。后面也有数据,结合北京地区的天气条件,我们看到右边根据温度分小于5度的,整个系统独立工作,完全不用电。5到15度有一定的喷水给热管制冷,然后也不用电,喷水部分用一点电。我们看到实际上有55%左右的,一半以上的时间这一年这些模块不需要用电的,这是非常棒的举措。说起来容易,做起来难,我们实施的过程中那帮兄弟们老跟它较劲。这张效果图是去年12月1号12:5分,水阀开启以后完全不需要水做制冷,这是效果的体现。

预估了一下,一年这个部分的模块能省掉12万吨水,一天差不多300、400吨水,这个在海淀也是对环境友好的表现。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读