加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营 > 正文

深度学习不只是“Import Tensorflow”(下)

发布时间:2019-11-25 21:02:54 所属栏目:运营 来源:站长网
导读:副标题#e# 上一部分我们通过努力得到了一个不错的基本神经元,今天我们将会得到一个不同的线性模型! 前文回顾:深度学习不只是“Import Tensorflow”(上) 但是如果我们增加更多的投入呢? 线性回归模型最小化了输入实际输出与模型预测输出之间的误差。类

因此,与其在抛物线上降低我们的损失,不如把梯度下降的过程想象成把一个球滚下山,这个球代表了我们神经网络的误差量。

深度学习不只是“Import Tensorflow”(下)

我们在这里使用线性回归模型来保持可视化的简单性。观察模型的准确性如何提高(右),因为它的点在损失函数(左)“滚下山”。

简而言之,梯度下降法使网络能够计算出给定一组输入时,它的输出是需要更大的正值还是负值,以便在进行预测时提高网络的整体准确性。

该死的,纠正他们的错误!

一旦通过损失函数计算出误差,网络中的权值和偏差就会被修正以使误差最小化。这是通过一种叫做反向传播的方法实现的:

W(k+1) = W(k) — (Learning Rate) × (Gradient Descent Applied to Error)

其中W(k+1)表示新的权值,W(k)表示当前权值。

反向传播函数将错误从输出层向后传播到网络中的每一层。它本质上允许我们修改神经网络中节点之间的每一个权重的值,使一些节点变得比其他节点更“活跃”。

深度学习不只是“Import Tensorflow”(下)

可视化反向传播。图像来源于虚构到事实。

这些修改的目的是最小化神经网络的损失或误差。经过无数次的反复训练,损失最小化,我们的神经网络在工作中变得越来越精确,无论是识别手写数字还是推荐你下一个YouTube视频。

关键要点
  • 神经网络学习输入变量和输出变量之间的关系。
  • 给定足够的数据进行训练,神经网络学习从x到y的精确映射。
  • 神经网络由输入层、隐藏层和输出层组成。
  • 单个节点的函数可以与线性回归进行比较,其中每个节点都有一组权重和偏差。
  • 神经元与线性回归模型的不同之处在于,一个节点可以接受几个加权的输入,并且一层的每个节点都向下一层的节点提供信息。这一特性使得神经网络能够模拟数十个、数百个或数千个变量之间极其复杂的关系。
  • 我们使用激活函数来解释变量之间关系的非线性。
  • 梯度下降用于识别和最小化神经网络中的损失,其工作原理类似于滚下丘陵和山谷的球。
  • 一旦确定了损失,通过反向传播使损失最小化;输出层的错误通过微积分中的链式法则向后传播,从而调整每一层的权重和偏差。
恭喜你!

你绝对是个传奇。我没有耐心读完所有的东西(考虑到是我写的,这很有趣)。你真棒!

更重要的是,现在除了导入TensorFlow之外,您对神经网络如何工作有了更直观的理解。

我希望您学到了一些有价值的东西,我们下一篇文章再见!

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读