当前位置: 首页 > news >正文

营销网站建设哪个平台好青海省建设网站多少钱

营销网站建设哪个平台好,青海省建设网站多少钱,网站建设公司价,神马排名seo目录 深度学习优化入门#xff1a;Momentum、RMSProp 和 Adam 病态曲率 1牛顿法 2 Momentum:动量 3Adam 深度学习优化入门#xff1a;Momentum、RMSProp 和 Adam 本文#xff0c;我们讨论一个困扰神经网络训练的问题#xff0c;病态曲率。 虽然局部极小值和鞍点会阻碍… 目录 深度学习优化入门Momentum、RMSProp 和 Adam 病态曲率 1牛顿法 2 Momentum:动量 3Adam 深度学习优化入门Momentum、RMSProp 和 Adam 本文我们讨论一个困扰神经网络训练的问题病态曲率。 虽然局部极小值和鞍点会阻碍我们的训练但病态曲率会减慢训练的速度以至于从事机器学习的人可能会认为搜索已经收敛到一个次优的极小值。让我们深入了解什么是病态曲率。 「病态曲率」 考虑以下损失曲线图。 病态曲率 如你所知我们在进入一个以蓝色为标志的像沟一样的区域之前是随机的。这些颜色实际上代表了在特定点上的损失函数的值红色代表最高的值蓝色代表最低的值。 我们想要下降到最低点因此需要穿过峡谷。这个区域就是所谓的病态曲率。为了了解为何将其称为病态曲率让我们再深入研究。放大了看病态曲率就像这样... 要知道这里发生的事情并不难。梯度下降沿着峡谷的山脊反弹向最小的方向移动的速度非常慢。这是因为山脊的曲线在 W1 方向上弯曲的更陡。 考虑山脊表面的 A 点。我们看到梯度在这点可以分解为两个分量一个沿着 W1 方向另外一个沿着 W2 方向。如果 f 显著下降的唯一方向是低曲率的那么优化可能会变得太慢而不切实际甚至看起来完全停止造成局部最小值的假象。 正常情况下我们使用一个较慢的学习率来解决这种山脊间反弹的问题正如上一篇关于梯度下降的文章所述。然而这却产生了麻烦。 当我们接近最小值时慢下来是有意义的我们想要收敛于它。但是考虑一下梯度下降进入病态曲率的区域以及到最小值的绝对距离。如果我们使用较慢的学习率可能需要花费更多的时间才能到达极小值点。事实上有研究论文报道过使用足够小的学习率来阻值山脊间的反弹可能导致参与者以为损失根本没有改善从而放弃训练。 如果 f 显著下降的唯一方向是低曲率的那么优化可能会变得太慢而不切实际甚至看起来完全停止造成局部最小值的假象。 也许我们想要的是能让我们慢慢进入病态曲率底部的平坦区域然后在最小值的方向上加速。二阶导数可以帮助我们做到这一点。 1牛顿法 梯度下降是一阶优化方法。它只考虑损失函数的一阶导数而不考虑更高阶的导数。这基本上意味着它不知道损失函数的曲率。它只能说明损失是否下降以及下降的速度而不能区分曲线是平坦的向上的还是向下的。 之所以会发生这种现象是因为梯度下降只关心梯度就好像上图中红色的点三个曲线在这一点上的梯度是相同的。如何解决使用二阶导数或者考虑梯度变化的速率。 一个非常流行的可以使用二阶导数的技术可以解决我们的问题这个方法称为牛顿法。 如果表面变得不那么陡峭那么学习步骤就会减少。 牛顿法可以提供一个理想的步长在梯度方向上移动。由于我们现在有了关于损失表面曲率的信息所以可以选择步长而不是用病态曲率来超过该区域的极限。 牛顿法通过计算 Hessian 矩阵来实现Hessian 矩阵是损失函数的二阶导数组成的权值组合。我所说的权值组合如下所示。 Hessian 矩阵在一个大矩阵中计算所有这些梯度。 Hessian 矩阵给出了一个点的损失曲面曲率的估计。一个损失的表面可以有一个正曲率这意味着当我们移动时表面会迅速变得不那么陡峭。如果我们有一个负曲率这意味着当我们移动时曲面变得越来越陡。 注意如果这一步是负的那就意味着我们可以使用任意的步骤。换句话说我们可以切换回原来的算法。这对应于下面的情况梯度变得越来越陡。 然而如果梯度变得不那么陡峭我们可能会走向一个处于病态曲率底部的区域。在这里牛顿法给了我们一个修正的学习步骤正如你所看到的它与曲率成反比或者曲面变得越来越小。 如果表面变得不那么陡峭那么学习步骤就会减少。 2 Momentum:动量 与 SDG 结合使用的一种常用方法叫做 Momentum。Momentum 不仅会使用当前梯度还会积累之前的梯度以确定走向。梯度下降方程修改如下。 第一个式子有两项。第一项是上一次迭代的梯度乘上一个被称为「Momentum 系数」的值可以理解为取上次梯度的比例。 我们设 v 的初始为 0动量系数为 0.9那么迭代过程如下 我们可以看到之前的梯度会一直存在后面的迭代过程中只是越靠前的梯度其权重越小。说的数学一点我们取的是这些梯度步长的指数平均。 这对我们的例子有什么帮助呢观察下图注意到大部分的梯度更新呈锯齿状。我们也注意到每一步的梯度更新方向可以被进一步分解为 w1 和 w2 分量。如果我们单独的将这些向量求和沿 w1 方向的的分量将抵消沿 w2 方向的分量将得到加强。 3Adam 到目前为止我们已经对比了 RMSProp 和 Momentum 两种方法。尽管 Momentum 加速了我们对极小值方向的搜索但 RMSProp 阻碍了我们在振荡方向上的搜索。 Adam 或 Adaptive Moment Optimization:自适应力矩优化. 算法将 Momentum 和 RMSProp 两种算法结合了起来。这里是迭代方程。 我们计算了每个梯度分量的指数平均和梯度平方指数平均方程 1、方程 2。为了确定迭代步长我们在方程 3 中用梯度的指数平均乘学习率如 Momentum 的情况并除以根号下的平方指数平均如 Momentum 的情况然后方程 4 执行更新步骤。 超参数 beta1 一般取 0.9 左右beta_2 取 0.99。Epsilon 一般取1e-10。 「结论」 在这篇文章中我们介绍了 3 种基于梯度下降法来解决病态曲率同时加快搜索速度的方法。这些方法通常称为「自适应方法」因为学习步骤会根据等高线拓扑进行调整。 在上面的三种方法中尽管 Adam 算法在论文中被认为是最有前景的算法但是 Momentum 方法貌似更主流一些。实践结果表明在给定损失函数的情况下三种算法都能收敛到不同的局部最优极小值。但是用带 Momentum 的 SGD 算法比 Adam 算法找到的极小值更加平坦而自适应方法往往会收敛到更加尖锐的极小值点。平坦的极小值通常好于尖锐的极小值。 尽管自适应算法有助于我们在复杂的损失函数上找到极小值点但这还不够特别是在当前网络越来越来越深的背景下。除了研究更好的优化方法之外还有一些研究致力于构建产生更平滑损失函数的网络架构。Batch-Normalization 和残差连接是其中的解决方法我们也会尽快在博客上发布有关的详细介绍。欢迎随时在评论中提问。
http://www.pierceye.com/news/134793/

相关文章:

  • 烟台放心的一站式网站建设桐梓网站建设
  • 如何高效的完成网站建设步骤美食分享网站建设策划书
  • 建立网站的软件网站建设数据库的购买
  • 建网站需要多大的宽带wordpress 分享后可见
  • 自建营销型企业网站阿里网 网站备案流程
  • 与网站建设相关的论文题目wordpress图片上文字
  • 怎样搭建网站视频教程58企业网站如何做
  • 比较有名的网站建设公司wordpress 字数
  • 网站内容资源建设渭南市建设项目
  • 网站设置的参数wordpress弹窗登录注册
  • 网课系统软件网站建设费用网站做vr的收费
  • 海宁做网站的公司seo怎么学在哪里学
  • 佛山做网站多少钱服务器学生
  • 自己建网站卖东西怎么进入wordpress修改界面
  • 网站建设与制作报价wordpress菜单怎么设置目录册
  • 学生免费建设网站建设网站是否等于开展网络营销
  • 旅游网站结构图网站编程图
  • 达内网站开发培训价格安装百度到手机桌面
  • 网站服务器慢建站设计网站
  • wordpress 多站点 插件怎么做网站主页设计
  • 网站建设初稿wordpress删除自豪的
  • 某网站突然不能浏览了网站不备案能用吗
  • 厦门做个网站多少钱360建筑网官网下载
  • 镇江外贸网站建设电子工程王粟
  • 申请网站建设经费wordpress做商城网站
  • google下载app西安分类信息seo公司
  • 淘宝是什么语言做的网站手机网站开发+手机模拟器
  • 视频网站开发框架小说类网站功能建设
  • 网站规划与设计案例网站建设方案设计
  • 漯河网站建设费用成都网站建设重庆最加科技