加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

赢在Cloud,只是暂时;输掉AIoT,将是永远

发布时间:2019-09-30 17:41:02 所属栏目:移动互联 来源:佚名
导读:1982 年,计算机领域的先驱艾伦凯(Alan Kay)说:认真写软件的人,应该自己做硬件。乔布斯多次引用过这句名言。 现在,认真写软件的人,不仅自己做硬件,而且还在自己做最硬核的芯片。由于成本、空间和功耗的限制,定制化芯片时代来了,随之掀起了一场难
副标题[/!--empirenews.page--]

赢在Cloud,只是暂时;输掉AIoT,将是永远

1982 年,计算机领域的先驱艾伦·凯(Alan Kay)说:认真写软件的人,应该自己做硬件。乔布斯多次引用过这句名言。

现在,认真写软件的人,不仅自己做硬件,而且还在自己做最硬核的芯片。由于成本、空间和功耗的限制,定制化芯片时代来了,随之掀起了一场难以避免的算力对决。

这周,与物联网密切相关的云计算领域,正在发生一场有关算力的巨变!

华为通过连续两届全连接 HC 大会,完成并强化了一次华丽转身:从连接优先,到算力优先。过去三十多年里,从有线到无线,从 2G/ 3G/ 4G 到 5G,华为一直在专心做连接。现在,联接到哪里,华为的算力就布局到哪里。

2017 年,华为云提出一个小目标:让华为云跻身全球“五朵云”之一,为随后的战略演进埋下伏笔。

2018 年,华为正式发布全栈全场景 AI 解决方案,同时亮相两款 AI 芯片,华为昇腾 910 和昇腾 310。

2019 年,华为公布计算战略,并带来了全球最快的 AI 训练集群 Atlas 900,计算产业新的大航海时代徐徐开启。

总之一句话:华为将在云边端各个层面引发算力革新。

紧接着,在云栖大会,“算力”再次成为关键词。

阿里巴巴董事局主席兼首席执行官张勇说:在数字经济时代,大数据是石油,而算力是引擎。随着算力的发展,最终一定是“数”和“智”的全面结合,并迈入数字经济时代。

自从阿里宣布将物联网列入新赛道之后,便以“生死看淡、不服就干”的态度一路狂奔完成了“由软到硬”的演进。

2018 年,阿里宣布成立一家独立运营的芯片公司:“平头哥半导体有限公司”。

2019 年,阿里的云边端一体化全栈芯片产品家族已显雏形,涵盖云端 AI 芯片(含光 800)、终端高性能处理器 IP(玄铁系列)和一站式芯片设计平台(无剑 SoC 平台)。

同时,阿里云正式发布开源物联网操作系统 AliOS Things 3.0,在硬件驱动层与最新的平头哥 AI 芯片架构紧密集成。阿里人工智能实验室和平头哥共同定制开发的智能语音芯片 TG6100N,也即将在智能音箱产品中使用。

除了上述提到的两家,同样出击云边端全栈芯片布局,推进算力革新的公司,还有亚马逊、谷歌、微软、百度、IBM…没错,云计算企业跨界造芯,而且是围绕 AIoT 云边端“一体化”造芯的做法,正在成为显性趋势。

这篇文章,我们将对巨头们云边端全栈造芯的布局进行全景式呈现。

曾经的云计算服务商只是云端 AI 芯片的主要推动者,现在他们则将技术能力渗透到了边缘。这些巨头们需要云边端一体的战略挖掘数据的价值,在数据的时代保持领先,而这个战略非常重要的支撑就是云端、边缘和终端的 AI 芯片。如果说巨头们研发云端 AI 芯片的做法尙属“醉翁之意不在酒”,那么研发终端和边缘芯片则是明确剑指 AIoT 智联网而来。

在这场前所未有的造芯趋势中,巨头们发布了哪些芯片?出于什么动机,巨头们选择扎堆造芯?这波浪潮将会涌向何方,又会塑造哪些商业模式?哪些企业更有希望生存并获利?

或许谁率先悟透了这波造芯战事,谁就更易卡位前排,获得在物联网市场未来战役中的更多主动权。

云计算巨头“扎堆”造 AIoT 芯片

根据 OpenAI 在 2018 年发布的分析数据显示,自 2012 年以来,最大规模的人工智能 AI 训练运行所使用的计算量呈指数增长,3.5 个月翻一倍(相比之下,摩尔定律需要 18 个月)。自 2012 年以来,该指标增长了 30 多万倍。如此快速增长的市场,可谓绝无仅有,自然吸引了巨头们的注意。

亚马逊想做 AI 芯片,已经是由来已久的事情了。毕竟在云服务领域,AWS 承载着全球的 AI 需求爆发;而终端领域随着 Alexa 和 Echo 的布局越来越大,也急需要芯片层的突破,将技术进化的主旋律掌握在自己手中。

为了实现自有 AI 芯片的目标,2015 年,亚马逊以 3.5 亿美元收购了以色列芯片制造商 Annapurna Labs。2017 年,亚马逊收购安全摄像头制造商 Blink,这家芯片厂商在 IoT 低功耗芯片和机器视觉处理芯片上都有技术积累。

自从 2018 年初,就有消息称亚马逊可能正在设计终端 AI 芯片。自研的专用 AI 芯片将主要用于提升 AI 语音任务的效率,降低 Alexa 对云计算的依赖,提升搭载 Alexa 设备的本地 AI 算力,同时降低设备功耗,增强 Alexa 设备的可移动性。

在云端,亚马逊的 AI 芯片已经亮相,首款云端 AI 推理芯片 AWS Inferentia 的目标是杀伤微软 Azure、谷歌云等一批对手,不给别人可乘之机。

谷歌:试水专用 AI 芯片的先锋

作为最早开始做 AI 相关研发的科技公司之一,谷歌亦是试水专用 AI 芯片的先锋,最早验证了专用集成电路 ASIC 可以在深度学习领域替代 GPU。

早在 2006 年,谷歌就开始考虑在其数据中心部署 GPU 或者 FPGA、ASIC,当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。

情况在 2013 年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将会非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片 ASIC 用于推理,并购买现成的 GPU 用于训练。

谷歌于 2016 年推出了自己开发的 AI 芯片 Tensor Processing Unit(TPU),现已进入第三代,为谷歌的语音助理、谷歌地图、谷歌翻译等各种 AI 应用提供算力支撑。最初设计的 TPU 用于深度学习的推理阶段,而新版本已经可以用于 AI 训练。

谷歌声称,使用 32 种最好的商用 GPU 训练机器翻译系统需要一天的时间,相同的工作量需要在 8 个连接的 TPU 上花费 6 个小时。

可以明确,谷歌 TPU 的推出,主要是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且 TPU 作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。

 百度:AIoT 芯片为远场语音交互打造 

今年 7 月的百度 AI 开发者大会上,百度 CTO 王海峰正式推出了百度首款语音 AIoT 芯片“鸿鹄”。该款芯片是百度语音团队与 AIoT 芯片企业欣博电子合作打造的,由百度技术团队偏重算法,欣博电子团队偏重芯片硬件。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读