加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 正文

推动中国AI 开发进入黄金时代 华为云底气何在

发布时间:2019-12-05 11:31:40 所属栏目:创业 来源:砍柴网
导读:副标题#e# 为期两天的 AICon 全球人工智能与机器学习技术大会已落下帷幕,作为一场面向各行业 AI 中高层技术人员的盛会,历年 AICon 都吸引了业界顶级公司参与其中,今年也不例外,包括华为、AWS、阿里巴巴、腾讯等公司的 AI 专家们齐聚一堂,共同探讨围绕
副标题[/!--empirenews.page--]

为期两天的 AICon 全球人工智能与机器学习技术大会已落下帷幕,作为一场面向各行业 AI 中高层技术人员的盛会,历年 AICon 都吸引了业界顶级公司参与其中,今年也不例外,包括华为、AWS、阿里巴巴、腾讯等公司的 AI 专家们齐聚一堂,共同探讨围绕 AI 的产业变革机会与技术创新方向。

这场大会上所展示的 AI 落地案例、AI 技术实践以及 AI 的工业化应用,都在强调一个事实:站在 2019 年 11 月的时间点去看,AI 之于各个行业的意义已经不再是「是否有价值」,而是变成了「如何让 AI 变得更有价值」。

与此同时,在 5G 商用元年,全新通讯技术带来的巨大潜力,正在传递到产业的各个链条,而云计算的持续进化,已经深刻影响到了从政府到大型企业的方方面面。

这也留给行业一个命题:当 5G、AI 与云共同定义了这个时代,各个行业应用 AI 的第一步从哪里开始?

参与这场大会的华为云给出了自己的一个回答:利用华为云的全栈全场景 AI 能力,开发者、企业可以快速驶入 AI 开发、部署与应用的赛道。

据了解,此次大会上,华为云进一步展示了其全栈全场景的 AI 解决方案。具体来说,「全栈」指的是包括芯片、芯片使能、训练和推理框架和应用使能在内的全堆栈方案;「全场景」则是将公有云、私有云、各种边缘计算、物联网行业终端以及消费类终端在内的全场景纳入到 AI 的部署环境中。

那么,如何进一步理解当下 AI 开发、部署的痛点,华为云全栈全场景的 AI 能力,又对开发者、企业有何意义?

55e736d12f2eb938621202e2b33a5230e5dd6f05

接下来,我们来一一解读。

1.AI 开发/部署所面临的挑战

对于任何一个行业来说,AI 开发、部署都是一个全新的挑战,而且这些挑战也贯穿在 AI 开发、部署的始终。

首先,AI 算力需求旺盛且多样化。自 2012 年以来,AI 计算能力需求早已超过摩尔定律,当模型越发复杂,当算力需求越来越大,开发者、企业所面临的计算成本也在大幅上升。

另一方面,随着物联网以及即将到来的 5G 时代,AI 计算的场景也将变得多元化,从大型数据中心到迷你终端设备,不同场景下的计算需求、功耗成本以及计算延时也有着不同的需求。

这意味着,AI 开发者和企业需要强大、灵活以及多场景的算力。

其次,AI 框架与一站式AI 平台的需求。作为向下对接芯片、向上承载应用的 AI 框架,业界目前流行的 TensorFlow 等,多为美国公司研发并开源出来的产品,且不说会不会受到国际大环境的影响,只谈开源产品的本地化后续服务,TensorFlow 等都很难直接适应中国开发者的需求。

而面对 AI 人才短缺的现实,如何进一步降低 AI 开发门槛成为行业的迫切需求,更进一步,开发者和企业也需要一站式的 AI 开发环境,从而快速完成从数据标注到模型部署的一整套工作流程。

第三,云、边、端的训练和部署如何协同。这是一个摆在全行业面前的共同挑战, 相比于 AI 模型训练为数不多的技术选型(GPU,数据中心),AI 模型部署对于开发者、企业而言更复杂。这是因为,AI 部署所面临的是纷繁复杂的设备环境,特别是在移动设备、边缘设备交织的业务场景里,如何高效完成模型从快速训练到快速部署,成为各行各业 AI 从业者关注的命题。

2.华为云如何破解算力难题?

在 ICT 领域耕耘多年的华为,面对 AI 领域开发、部署的难点、痛点,提出了自己的一番思考。

正如上文所言,AI 计算需求在过去七年里迎来大爆发,根据 OpenAI 的统计,自 2012 年至今,AI 算力需求增长了 30 万倍。

这带来两个显著变化:其一,传统的 CPU 已经无法承担起 AI 计算的需求;其二,业界对于 GPU、FPGA 与 NPU 的需求开始上升。

这正是华为昇腾芯片出现的行业背景。通过底层创新性的「达芬奇架构」,使得华为昇腾芯片具备了在端边云上拥有统一的计算架构,由此带来了不仅是计算能力的大幅提升,而且还可以实现算法一次开发,再顺利迁移到其他场景的芯片上的能力。

以今年正式发布的的昇腾 910 芯片为例,其主要面向数据中心的云端AI训练,半精度 (FP16)算力达到256 Tera-FLOPS,整数精度 (INT8) 算力达到512 Tera-OPS,达到规格算力所需功耗仅310W,无论计算能力还是功耗,都属业界领先水平。

与此同时,基于「达芬奇架构」,华为在端、边、云都已推出了相应芯片,这些芯片构成了华为 AI 能力的最底层:芯片层/利用华为云的调度能力,满足开发者、企业不同场景中的计算需求,而公有云「用多少付多少钱」的商业模式,可以大幅降低企业的 AI 计算成本。

3.从框架到一站式开发平台的赋能

在 AI 开发流程里,华为将 MindSpore 作为统一训练和推理的开源框架。MindSpore 从设计开始,就确定了「AI 算法即代码」的设计范式,可以大幅降低 AI 开发门槛;而在执行模式中,基于 Ascend Native 的执行引擎,能够充分发挥昇腾芯片的强大算力;与此同时,MindSpore 还具备了适配端、边、云的能力,在统一架构的基础上,根据场景不同可大可小,最大限度满足企业场景需求,并提供更好的资源效率和隐私保护。

值得一提的是,MindSpore 未来也将全面开源,不同行业的开发者,完全可以根据其自身业务需求,灵活扩展和定制,将其应用到更多硬件平台之上,构建自己的 AI 训练模型。

在开源框架 MindSpore 之上,华为还拥有一站式 AI 开发平台 ModelArts,这个平台所肩负的,是如何为开发者/企业提供一整套基于云端的机器学习开发全流程服务。

2019 年 3 月份,ModelArts 在 AI 权威竞赛斯坦福大学 DAWNBench 榜单中取得图像识别训练和推理性能双料冠军,将模型训练时间大幅缩减的同时实现了超强推理性能。

来看一组具体数字,在训练性能方面,ResNet50_on_ImageNet上的测试结果显示,当采用128块V100时,华为云ModelArts上模型训练时间仅需4分08秒,与 2018年12月创下的9分22秒纪录相比又快了一倍,比此前 fast.ai 在 AWS 平台上的训练速度快4倍;在推理性能方面,华为云ModelArts识别图片的速度是排名第二厂商的1.7倍、亚马逊的 4 倍以及 Google 的 9.1倍。

ModelArts 能取得这样的成绩,展现了其在机器学习平台的技术优化能力,通过技术创新降低机器学习平台的使用成本,最终将技术红利让给企业和开发者。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读