加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

奶爸为8岁女儿解读深度学习篇之:11个事实

发布时间:2019-08-22 09:11:06 所属栏目:移动互联 来源:机器之心编译
导读:「神经网络就像数数一样简单」,「卷积层只是一个蝙蝠信号灯」在本文中,一位奶爸从手写数字识别入手,用这样简单的语言向自己 8 岁的女儿解释了一下「深度学习」。当然,用这篇文章向女朋友(如果有的话)科普自己的工作也是可以的。 机器学习,尤其是深

以下是由 Yann Lecun 设计的原始 LeNet-5 卷积神经网络的概述,他是早期采用该技术进行图像识别的人之一。

奶爸为8岁女儿解读深度学习篇之:11个事实

原始论文中的 LeNet-5 架构(来源:http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf)

事实 9:深度学习只是基于反馈回路的持续改进

技术之美不仅来自卷积,而且来自网络自身学习和适应的能力。通过实现名为反向传播的反馈回路,网络将使用权重来减轻和抑制不同层中的一些「神经元」。

我们来看看网络的输出,如果猜测(输出 0, 1, 2, 3, 4, 5, 6, 7, 8 或 9)是错误的,我们要看一下是哪个/些过滤器「出了错」,找到之后,我们给这个/些过滤器一个小小的权重,这样它们下次就不会犯同样的错误。瞧!系统在学习并不断改进自己。

事实 10:这一切都说明,深度学习是易并行过程

提取数千个图像,运行数十个过滤器,采用下采样,扁平化输出...... 所有这些步骤可以并行完成,这使得系统易于并行。它只是 GPGPU(通用图形处理单元)的完美用例,非常适合大规模并行计算。

事实 11:需要更精确?那网络就再深一点

当然这有点过于简单化,但如果我们看一下主要的「图像识别竞赛」,即 ImageNet 挑战,我们就可以看到错误率随着神经网络的深度增加而降低。人们普遍认为,排除其他因素,网络深度的增加将带来更好的泛化能力和准确性。

奶爸为8岁女儿解读深度学习篇之:11个事实

Imagenet 挑战赛获胜者错误率 VS 网络中的层数

(来源: https://medium.com/@sidereal/cnns-architectures-lenet-alexnet-vgg-googlenet-resnet-and-more-666091488df5)

结论

我们简要介绍了应用于图像识别的深度学习概念。值得注意的是,几乎所有用于图像识别的新架构(医疗、卫星、自动驾驶......)都使用相同的原理,只是具有不同数量的层,不同类型的滤波器,不同的初始化点,不同的矩阵大小,不同的技巧(如图像增强、dropout、权重压缩...)。概念都是一样的:

奶爸为8岁女儿解读深度学习篇之:11个事实

手写数字识别过程

深度学习模型的训练和推理可以归结为并行完成的大量基本矩阵运算,确切地说,这正是我们已有的图形处理器(GPU)的用途。


【编辑推荐】

  1. 这 5 种编程语言未来可能各自成王
  2. Python之路点燃编程圈:源于不爽C语言,单枪匹马如今吞噬世界
  3. 10分钟带你打开深度学习大门,代码已开源
  4. 2019全球编程语言高薪排行榜:Scala、Go轻松达百万年薪
  5. 不完全预测:2020年将流行何种编程技术?
【责任编辑:张燕妮 TEL:(010)68476606】
点赞 0

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读