加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

浅谈梯度下降法/Gradient descent

发布时间:2019-03-29 00:53:18 所属栏目:教程 来源:360技术
导读:当今世界,深度学习应用已经渗透到了我们生活的方方面面,深度学习技术背后的核心问题是最优化(Optimization)。最优化是应用数学的一个分支,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。 梯度下降法(G

(当前点在浅谈梯度下降法/Gradient descent方向上移动到的那一点浅谈梯度下降法/Gradient descent处的梯度,,与当前点的搜索方向浅谈梯度下降法/Gradient descent的点积为零)。

由此得知:

即:

故由梯度下降法的浅谈梯度下降法/Gradient descent得:

即:相邻两次的搜索方向是相互直交的(投影到二维平面上,就是锯齿形状了)。

如果你非要问,为什么浅谈梯度下降法/Gradient descent就表明这两个向量是相互直交的?那是因为,由两向量夹角的公式:

可知两向量夹角为90度,因此它们直交。

6. 优点

这个被我们说得一无是处的方法真的就那么糟糕吗?

其实它还是有优点的:程序简单,计算量小;并且对初始点没有特别的要求;此外,许多算法的初始/再开始方向都是最速下降方向(即负梯度方向)。

7. 收敛性及收敛速度

梯度下降法具有整体收敛性——对初始点没有特殊要求。

采用精确的line search的梯度下降法的收敛速度:线性。

引用:

  • https://en.wikipedia.org/wiki/Cauchy%E2%80%93Schwarz_inequality
  • https://en.wikipedia.org/wiki/Gradient_descent
  • https://en.wikipedia.org/wiki/Rosenbrock_function
  • https://en.wikipedia.org/wiki/Gradient_descent

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读