当前位置: 首页 > news >正文

网站后端开发衡阳网站建设qiandu1

网站后端开发,衡阳网站建设qiandu1,建设信用卡购物网站,商标设计网站排行一、说明 什么是梯度惩罚#xff1f;为什么它比渐变裁剪更好#xff1f;如何实施梯度惩罚#xff1f;在提起GAN对抗网络中#xff0c;就不能避免Wasserstein距离的概念#xff0c;本篇为系列读物#xff0c;目的是揭示围绕Wasserstein-GAN建模的一些重要概念进行探讨。 图… 一、说明         什么是梯度惩罚为什么它比渐变裁剪更好如何实施梯度惩罚在提起GAN对抗网络中就不能避免Wasserstein距离的概念本篇为系列读物目的是揭示围绕Wasserstein-GAN建模的一些重要概念进行探讨。 图1左使用配重裁剪时的梯度范数要么爆炸要么消失不使用GP。右与 GP 不同权重裁剪将权重推向两个值。  二、背景资料         在这篇文章中我们将研究带有梯度惩罚的Wasserstein GAN。虽然最初的Wasserstein GAN[2]提高了训练稳定性但仍存在生成较差样本或无法收敛的情况。回顾一下WGAN的成本函数为 公式 1WGAN 值函数。         其中 f 是 1-利普希茨连续的。WGAN的问题主要是因为用于对批评者强制执行Lipschitz连续性的权重裁剪方法。WGAN-GP用对批评家的梯度范数的约束代替了权重裁剪以强制执行Lipschitz的连续性。这允许比WGAN更稳定的网络训练并且需要很少的超参数调优。WGAN-GP和这篇文章建立在Wasserstein GANs之上这已经在揭秘系列的上一篇文章中讨论过。查看下面的帖子以了解 WGAN。 揭秘瓦瑟斯坦·甘斯WGAN 瓦瑟斯坦距离是多少使用Wasserstein距离训练GAN背后的直觉是什么怎么... 报表 1 可微的最优1-Lipschitz函数最小化方程1的f*在Pr和Pg下几乎在任何地方都有单位梯度范数。 Pr 和 Pg 分别是真假分布。语句 1 的证明可以在 [1] 中找到。 三、渐变剪切问题 3.1 容量未充分利用 图2WGAN评论家上使用梯度裁剪学习的值表面下使用梯度惩罚学习的值表面。图片来源 [1] 使用权重裁剪来强制执行 k-Lipschitz 约束会导致批评者学习非常简单的函数。 从语句 1 中我们知道最优批评者的梯度范数在 Pr 和 Pg 中几乎无处不在都是 1。在权重裁剪设置中批评家试图达到其最大梯度范数 k并最终学习简单的函数。 图2显示了这种效果。批评者被训练收敛固定生成分布Pg作为实际分布Pr单位高斯噪声。我们可以清楚地看到使用权重裁剪训练的批评家最终学习了简单的函数并且未能捕捉到更高的时刻而使用梯度惩罚训练的批评家则没有这个问题。 3.2 梯度爆炸和消失 权重约束和损失函数之间的相互作用使得WGAN的训练变得困难并导致梯度爆炸或消失。 这在图1左中可以清楚地看到其中注释器的权重在不同的削波值下爆炸或消失。图 1右还显示渐变削波将注释器的权重推到两个极端削波值。另一方面接受梯度惩罚训练的批评家不会遇到此类问题。 四、梯度惩罚 梯度惩罚的想法是强制执行一个约束使得批评者输出的梯度与输入具有单位范数语句 1。 作者提出了该约束的软版本对样本x̂∈Px̂的梯度范数进行惩罚。新目标是 公式2批评家损失函数 在方程 2 中总和左侧的项是原始批评者损失总和右侧的项是梯度惩罚。 Px̂ 是通过在实分布和生成的分布 Pr 和 Pg 之间沿直线均匀采样而获得的分布。这样做是因为最优注释器在从Pr和Pg耦合的样品之间具有单位梯度范数的直线。 λ惩罚系数用于对梯度惩罚项进行加权。在论文中作者为所有实验设置了λ 10。 批规范化不再在注释中使用因为批范数将一批输入映射到一批输出。在我们的例子中我们希望能够找到每个输出的梯度w.r.t它们各自的输入。 五、代码示例 5.1 梯度惩罚  梯度惩罚的实现如下所示。 def compute_gp(netD, real_data, fake_data):batch_size real_data.size(0)# Sample Epsilon from uniform distributioneps torch.rand(batch_size, 1, 1, 1).to(real_data.device)eps eps.expand_as(real_data)# Interpolation between real data and fake data.interpolation eps * real_data (1 - eps) * fake_data# get logits for interpolated imagesinterp_logits netD(interpolation)grad_outputs torch.ones_like(interp_logits)# Compute Gradientsgradients autograd.grad(outputsinterp_logits,inputsinterpolation,grad_outputsgrad_outputs,create_graphTrue,retain_graphTrue,)[0]# Compute and return Gradient Normgradients gradients.view(batch_size, -1)grad_norm gradients.norm(2, 1)return torch.mean((grad_norm - 1) ** 2) 5.2 关于WGAN-GP代码 训练 WGAN-GP 模型的代码可以在这里找到 GitHub - aadhithya/gan-zoo-pytorchGAN实现的动物园 GAN 实现的动物园。通过在GitHub上创建一个帐户为aadhithya/gan-zoo-pytorch开发做出贡献。 github.com 5.3 输出 图3WGAN-GP模型生成的图像。请注意结果是早期结果一旦确认模型按预期训练训练就会停止。           图例.3显示了训练WGAN-GP的一些早期结果。请注意图 3 中的图像是早期结果一旦确认模型按预期训练训练就会停止。该模型未经过训练以收敛。 六、结论         Wasserstein GAN 在训练生成对抗网络方面提供了急需的稳定性。但是使用梯度削波导致各种问题例如梯度爆炸和消失等。梯度惩罚约束不受这些问题的影响因此与原始WGAN相比允许更容易的优化和收敛。这篇文章研究了这些问题介绍了梯度惩罚约束还展示了如何使用 PyTorch 实现梯度惩罚。最后提供了训练WGAN-GP模型的代码以及一些早期阶段的输出。阿迪西亚·桑卡尔 七、引用 [1] Gulrajani Ishaan et al. “改进了 wasserstein gans 的训练”。arXiv预印本arXiv1704.000282017。 [2] 阿尔约夫斯基、马丁、苏米斯·钦塔拉和莱昂·博图。“Wasserstein generative adversarial networks。”机器学习国际会议。PMLR 2017. [3] GitHub - aadhithya/gan-zoo-pytorch: A zoo of GAN implementations
http://www.pierceye.com/news/526690/

相关文章:

  • 十堰建设网站首页优化大师免安装版
  • 深圳建设企业网站公司敬请期待素材
  • 网络营销网站建设课程wordpress 文章描述
  • 网站制作有什么好的介绍北京网站建设及推广招聘
  • 殡仪馆做网站的好处制作响应式网站报价
  • 网站建设平台杭州做网站前台后台是怎么连接的
  • 太原市0元网站建设wordpress wcps
  • 怎么自己做免费网站wordpress 优酷通用代码自适应
  • 网站设置三方交易深圳品牌设计公司招聘
  • 东莞响应式网站哪家好网站开发应用到的技术名词
  • 背景做网站公司docker wordpress
  • 吉林建设监理协会网站网站 服务器 虚拟主机
  • 食品公司网站设计项目和男朋友都是第一次做网站
  • wordpress the7.6搜索引擎优化工作原理的先后顺序
  • 淘宝不允许 网站建设微网站如何做宣传
  • 海西高端网站建设价格怎样开通微信小商店
  • 学校校园网站建设方案南宁有做门户网站的公司吗
  • 一般电商都是在哪些网站上做wordpress 获取所有子页面
  • 长沙岳麓区网站开发网址大全首页
  • 学网站建设难不难专业网页美工招聘
  • 网站制作的公司有哪些四川成都有什么好玩的
  • 网站做wanzhihou专门做课件的网站
  • 如何做app网站中国建筑第八工程局有限公司
  • 网站设计素材网站cpa个人网站怎么做
  • 做徽标的网站做软件去哪个网站
  • 网站初始开发的步骤自己做的网站有排名吗
  • 山东建设厅官方网站一级建造师有什么网站可以做代理的
  • 哪个网站公司做的好百科网站推广
  • 网站首页做很多个关键词做羊水亲子鉴定网站
  • 漳州 做网站东昌府区住房和城乡建设局网站