加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

服务器芯片遭“围殴” 英特尔空前的“噩梦”来了!

发布时间:2018-12-18 14:00:50 所属栏目:建站 来源:华强微电子
导读:作为芯片巨头英特尔的核心支柱产业,服务器芯片业务一直以来的亮眼表现,都让该公司的财务业绩充满着增长活力。据英特尔最近一季度的财报业绩数据显示,依靠销售服务器和AI芯片的英特尔数据中心集团营收达到了61亿美元,相比去年同期增长了26%,而该集团目
副标题[/!--empirenews.page--]

芯片

作为芯片巨头英特尔的核心支柱产业,服务器芯片业务一直以来的亮眼表现,都让该公司的财务业绩充满着增长活力。据英特尔最近一季度的财报业绩数据显示,依靠销售服务器和AI芯片的英特尔数据中心集团营收达到了61亿美元,相比去年同期增长了26%,而该集团目前占据英特尔总营收的30%以上,在全球服务器芯片市场份额占比为98.6%。

不过,如今的英特尔正面临来自友商和其大客户们的“前后夹击”。这不,就在上月月底的AWS re:Invent 2018用户大会上,亚马逊就带头给了英特尔一记重击,因为该公司正式对外宣布推出了自研的机器学习芯片Inferentia、基于ARM架构的云服务器芯片Graviton以及基于该芯片提供的EC2 A1虚拟服务器,进军服务器和AI芯片战场。而除了亚马逊以外,如今谷歌、微软、Facebook以及中国的百度、阿里等英特尔大客户们现在也都开始采用自主开发服务器和AI芯片,或者寻求替代方案的路线,来慢慢摆脱对英特尔芯片的单向依赖。那么,这些“志同道合”的战友们目前的进展情况究竟如何了?

谷歌

作为很早就意识到数据中心重要性的谷歌,在六年前就开始自主研发芯片,最早源于Google为其Android系统加入的语音识别技术,也就是我们熟悉的Google Now和 Google Assistant。但由于考虑到语音识别、图像识别、机器翻译以及互联网搜索等越来越多云服务使用率会大幅增加,而凭借现有的数据中心规模难以支撑如此庞大的数据量处理和运转,因此在综合考量下谷歌最终选择了自研TPU芯片的这条路。

如今,经过多次的技术迭代,谷歌的TPU项目已经到了第三代,并广泛应用到了谷歌图像搜索、谷歌照片、谷歌翻译以及AlphaGo等诸多项目中,有“一颗芯片顶一座数据中心”的称誉。据目前谷歌披露的消息,相比类似的服务器级Intel Haswell CPU和NVIDIA K80 GPU,TPU在AI运算测试中的平均速度要快15-30倍,更重要的是,TPU的每瓦性能要比普通的GPU高出25-80倍。最新的TPU3 pod的总处理能力要高于100 PFLOPS,是TPU2 pod的8倍,其中芯片换代的贡献只有2倍,大部分归功于系统层面的各种改进。但众所周知,芯片开发也离不开相关软件工具,Google的软件能力和生态也是其能够实现芯片快速迭代的一个重要因素,比如谷歌专为TPU开发的CNN1软件,就可以让TPU的运行速度比普通CPU高出70多倍。

微软

与其他几家云服务巨头不同,微软在自研芯片的行动上一直都谨小慎微,鲜有消息对外披露,更多的还是通过选择合作第二或更多芯片供应商的方式来减少对英特尔独家供应芯片的依赖。今年9月,市场传出微软正寻求与中国华为公司洽谈AI芯片采购的计划,想要用华为的AI芯片来部署到微软位于中国本土的数据中心服务器上;10月底,FPGA供应商Xilinx获得了微软公司Azure云计算部门的订单,在超过一半的Azure服务器上微软会采用Xilinx的芯片来取代英特尔的产品。

在服务器芯片的自研方面,微软其实也没闲着。相信不少人还记得高通之前成立的数据中心项目部,而今年6月该项目部开始大幅裁员,从1000名员工迅速缩减到300位,借此机会微软也陆续从高通挖走了不少服务器芯片设计工程师和高管,包括工程领导团队中的Muntaquim Chowdhury、Thomas Speier、Michael McIlvaine、Wayne Smith以及设计经理Ketan Patel和Michael Underkoffler,微软官方给出的答复是主要为了扩增研发团队规模来开发微软的量子计算芯片,但在量子芯片之后,微软要开发自主服务器芯片也是水到渠成的事情。

亚马逊

对于英特尔而言,亚马逊的正式入场可谓是一个巨大的打击,同时也将对以X86架构为主导的英特尔未来的业务增长构成长期的影响。事实上,早在2015年,亚马逊就以3.5亿美元的架构收购了以色列芯片开发商Annapurna实验室,可见当时就已经进入了研发正轨。而今,在ARM架构的推动下,亚马逊一并推出了多款用于云端服务器领域的芯片,即机器学习芯片Inferentia以及云服务器芯片Graviton。

编者获悉,Inferentia是一款兼具高吞吐量、低延迟、持续性能且极具成本效益的AI处理器,Inferentia支持流行的框架包括TensorFlow、Caffe2和ONNX,同时支持INT8、FP16和混合精度。在亚马逊高管看来,该芯片旨在提高能效,有助于降低数据中心的电力成本,且现在亚马逊也正在提供一项允许商业客户使用其新芯片的云计算服务,这项服务的成本可以比其他云服务低45%。

而关于云服务器芯片Graviton,亚马逊也基于该芯片打造了EC2 A1虚拟服务器。AWS全球基础设施和客户支持副总裁Peter DeSantis表示,Graviton支持多达16个虚拟CPU(vCPU)和高达32 GB的主内存,其服务器适配器网络带宽高达每秒10 Gb,其Elastic Block Store(EBS)带宽高达每秒3.5 Gb,且拥有8到18个核心,运算频率在1.6 GHz到2.3 GHz之间,足以与英特尔的“Skylake”Xeon-D-2100 v2相匹敌。而基于该芯片打造的EC2 A1计算服务,能够对部分工作负载能耗可降低45%,为亚马逊省去大量的电力和芯片采购等额外成本开支。

Facebook

经过多年的积累和发展,以社交网站为主营业务的Facebook如今已成为了一家国际互联网巨头企业。而今,越来越多的竞争对手都开始大力发展AI及云计算等业务,Facebook也不可能坐得住;而且,在服务器芯片上长期以来都依赖英特尔供应也着实不是长久之计。因此,Facebook选择自主开发芯片也确实是合情合理。

今年4月份,Facebook对外公布了一则招聘信息,显示该公司正在招募一个半导体芯片专业研发团队,研发团队将打造“端对端的 SoC/ASIC、固件和驱动程序开发组织” (见图)。此处的SoC是指系统级芯片,后者ASIC(专用集成电路)则表明,Facebook计划研发的这款芯片拥有更加特殊的应用场景。该自主芯片将被用在Facebook自家的服务器及AI平台上,能帮助Facebook降低对诸如英特尔和英伟达等传统芯片厂商的依赖,实现量身定制的同时还能开发差异化的产品。目前,Facebook的芯片研发最新进展和细节并未对外披露。

百度

在云服务领域,百度也是一家十分具有影响力的公司,同时也是英特尔服务器芯片的大客户之一。但显然,随着该公司在AI之路上越走越远,其摆脱英特尔自主开发云服务器芯片的野心也是越来越大。

其实,从去年开始,百度就已经走上了自研的轨迹。在去年8月的加州Hot Chips大会上,百度就已经发布了AI云计算的芯片XPU,这是一款256核、基于FPGA的云计算加速芯片。该芯片架构突出多样性,着重于计算密集型、基于规则的任务,同时确保效率、性能和灵活性的最大化。据百度官方透露,XPU的目标是在性能和效率之间实现平衡,并处理多样化的计算任务,因为FPGA加速器本身很擅长处理某些计算任务,但随着许多小内核交织在一起,多样性程度将会上升。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读