加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 电商 > 正文

人工智能和光纤技术对数据中心的影响

发布时间:2018-08-09 21:33:23 所属栏目:电商 来源:站长网
导读:人们通常从电影中了解一些似乎与现实相差甚远的概念,但这些概念却很快融入人们的日常生活中。1990年上映的一部由阿诺施瓦辛格主演的电影中,一辆名为Johnny Cab的无人驾驶汽车让人印象深刻,可以将人们送到任何他们想去的地方。如今,大多数大型汽车公司

部署并行光学器件的主要优势之一是能够采用高速交换机端口,例如40G,并将其分解为4×10G服务器端口。端口突破提供了巨大的规模经济,因为突破低速端口可以显著减少电子设备的机箱或机架安装单元的数量从3:1(并且数据中心资产并不便宜)并且使用更少的电能,需要更少的冷却设施,并且可以进一步降低能源费用,调查数据表明这相当于单模解决方案节省了30%的成本。光纤收发器供应商还确认,所有销售的并行光纤收发器中的很大一部分都是为了利用这种端口分支功能而部署的。

(3)简单明晰的迁移

主要交换机和收发器供应商的技术路线图为部署并行光学器件的客户显示了非常清晰和简单的迁移路径。而大多数科技公司都在遵循这条路线,所以当光学器件可用,并且从100G迁移到200或400G时,它们的光纤基础设施仍然存在,无需升级。那些决定使用双工双光纤基础设施的企业可能会发现自己希望升级到100G以上,但WDM光纤系统可能无法在其迁移计划的时间范围内提供。

56

对数据中心设计的影响

从网络连接的角度来看,这些网络是高度网状的光纤基础设施,以确保没有一台服务器相互之间有两个以上的网络跃点。但是这样的带宽需求甚至从脊柱交换机到叶脊交换机的传统3:1超额配置比率还不够,并且更典型地用于来自不同数据大厅之间的超级脊柱的分布式计算。

由于交换机I/O速度的显著提高,网络运营商正在努力提高利用率,提高效率,提供超低的延迟。

此外,在谷歌公司最近宣布推出最新的人工智能硬件之后,传统的数据中心设计转向了另一个转变,这是一种名为Tensor Processing Unit(TPU 3.0)的定制专用集成电路(ASIC),在巨大的吊舱设计中,将其功能提高了8倍。但是,在芯片中加入更多的计算能力也会增加驱动它的能量,从而增加热量,这就是为什么数据中心采用液体冷却为芯片提供冷却的原因,因为TPU 3.0芯片产生的热量已经超出了之前数据中心冷却解决方案的限制。

结论

人工智能是下一波业务创新浪潮。它可以带来运营成本节约,额外的收入流,简化的客户互动,以及更高效的数据驱动的工作方式,其具有很多优势。最近的一次小组讨论证实了这一点,专家当时表示使用聊天机器人的网站如果效率不高且客户关注度不够,客户就会放弃对话,并且很难再次合作。

因此,人们必须接受这项技术并将其用于其业务优势,这也意味着采用不同的方式思考数据中心的设计和实施。由于专用集成电路(ASIC)的性能显著提高,人们最终会看到I/O速度的提高,甚至更深层次地推动网络连接的发展。企业的数据中心需要超高效的高速光纤网络、超低延迟、东西方向的脊柱和叶脊网络,以适应企业日常生产流量,同时支持机器学习培训。

人们已经看到了主要的科技公司如何接受人工智能以及如何部署并行单工模式帮助他们实现比传统双工方法更高的资本和运营成本,传统的双工方式从一开始就承诺降低成本。但是随着数据中心的运营以及继续发展,专业人员的习惯和交流方式在不断变化,提高了网络速度,并增加了复杂性。现在安装正确的布线基础设施解决方案将使企业从一开始就获得更大的经济利益,保留并吸引更多客户,并使企业的数据中心设施能够蓬勃发展。

 

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读