加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

阿里巴巴机器智能团队的三年工作总结

发布时间:2019-05-23 06:25:24 所属栏目:建站 来源:汪思颖
导读:本文转自雷锋网,如需转载请至雷锋网官网申请授权。 从 2016 年至今,阿里巴巴机器智能实验室线下智能团队开始涉足线下智能领域。探索至今,算法方面,他们提出了自主研发的模型压缩方法,新型模型结构和目标检测框架;工程方面,他们研发出一套非数据依赖

对检测模型做全量化处理。

阿里巴巴机器智能实验室线下智能团队三年工作总结

阿里巴巴机器智能实验室线下智能团队三年工作总结

如上表所示,相同 backbone 网络的情况下,我们提出的 LRSSD 在减少 SSD HEAD 计算量的同时,mAP 可以稳定提升3%-4% 。从另一个角度来看,在保证检测精度不变的情况下,我们的方法可以将模型复杂度减少到原来的 50% 左右。如果再考虑到量化带来的速度加成,在相同精度下,相比原有全精度模型,我们可以获得共约 2-3 倍的真实速度提升。

小结

上文给出了我们近 2 年内在线下智能—模型压缩领域所做的一些技术积累。归纳起来如下:

  • 量化方面:我们可以做到 3-bit 量化几乎无损压缩!

  • 稀疏方面:对于传统网络结构,我们可以做到 90% 稀疏度下的几乎无损压缩!

  • 软硬件协同设计方面:我们联合服务器研发团队,达到 0.174ms/张的 resnet18 极限推理速度,目前已知业内最佳效果!

  • 轻量级网络设计方面:我们在 40MFlops 计算量下,相对目前业内最好结构,在 ImageNet 数据集上绝对提升 2%!

  • 端上目标检测方面,我们在保证精度不变的情况下,速度提升约 2-3 倍!

在技术探索的同时,我们也在积极的将上述技术应用到实际的业务中。在这一过程中我们发现了下列几个问题:

  • 易用性:业务场景往往需要快速的迭代能力和灵活方便的部署能力,因此非标准化的方案很难被广泛应用。

  • 理论速度 vs 真实速度: 除了算法和硬件以外,真实的模型推理速度是需要一个高效的工程实现作为支撑的。

  • 集成化 :线下智能需要同时考验团队在硬件和软件两方面的实力,这对业务而言往往太过沉重。

在本文后半部分,我们首先会针对上述的几个问题介绍我们已经做过的尝试和沉淀出的解决方案。最后,我们列出了一些实例,展示如何在具体的业务场景中应用线下智能技术,希望可以给各位同学一个更直观的认识。

训练工具

在实际业务推广过程中,我们遇到的第一个问题是易用性问题:

不同业务往往使用的深度学习库多种多样,例如 Caffe, Tensorflow, Mxnet 等等;

不同业务使用的基础技术差异比较大,有分类识别、检测、分割、语音等等;

不同业务的数据安全级别差异比较大,有些可以公开,有些则需要完全物理隔离;

为了让更多的场景都可以用上我们的服务,获得 AI 的红利,我们提出了一套标准化的量化训练工具。

 阿里巴巴机器智能实验室线下智能团队三年工作总结

如上图所示,首先,我们的工具输入支持多种模型格式(TensorFlow,Caffe,Mxnet 等)。其次,我们提供了两种不同的模型量化方法,一种是支持不同任务(分类,检测,分割等)的数据依赖型压缩方法(Data Dependent Compression),适用于对数据安全要求不是很高,希望追求精度最大化的业务;另一种是数据非依赖压缩方法(Data Independent Compression),适用于对数据安全要求高,或者业务逻辑不是特别复杂的场景。

最后,在量化工作完成后,我们的工具会自动完成推理图的优化和模型加密,生成可以实际部署的模型文件。配合对应的推理加速库即可在端上运行。从易用性和数据安全性角度出发,我们推荐使用数据非依赖性的压缩方法。

目前,该套工具作为 MNN 推荐的量化工具广泛应用在阿里集团内多个线下业务场景中。

推理框架

实际中遇到的第二个问题就是真实推理速度问题,毕竟光有易用性是不够的,实打实的业务效果才是业务最想要的。这里我们使用阿里集团其他的兄弟团队提供的推理框架:

  • ARM 架构: 我们采用淘系技术团队研发的 MNN 作为推理框架;

  • GPU 架构: 我们采用机器智能技术团队研发的 falcon_conv 卷积库作为推理框架;

  • FPGA 架构:我们采用服务器研发团队研发的推理框架。

MNN

MNN 是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化、转换和推理。目前,MNN 已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中使用。选用常见的深度神经网络模型 MobileNet V2 和 SqueezeNet V1.1 作为测试样本:Android 方面,以小米 6 为例,MNN 在 CPU 和 GPU 上领先业界至少 30%;iOS 方面,以 iPhone 7 为例,MNN 在 CPU 和 GPU 上领先业界至少 15%。

FPGA

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读