当前位置: 首页 > news >正文

西城网站制作公司百度推广图片

西城网站制作公司,百度推广图片,js网站页面效果代码,湖南建设信誉查询网站最近很多关心深度学习最新进展#xff0c;特别是生成对抗网络的朋友可能注意到了一种新的GAN-- Wasserstein GAN。其实在WGAN推出的同时#xff0c;一种新的LS-GAN (Loss Sensitive GAN#xff0c;损失敏感GAN)也发表在预印本 [1701.06264] Loss-Sensitive Generative Adver… 最近很多关心深度学习最新进展特别是生成对抗网络的朋友可能注意到了一种新的GAN-- Wasserstein GAN。其实在WGAN推出的同时一种新的LS-GAN (Loss Sensitive GAN损失敏感GAN)也发表在预印本 [1701.06264] Loss-Sensitive Generative Adversarial Networks on Lipschitz Densities 上。 那这两种GAN有没有什么联系呢作为LS-GAN的作者笔者就带大家一览WGAN和LS-GAN本质和联系。 GAN前传和“无限的建模能力” 熟悉经典GAN的读者都知道GAN是一种通过对输入的随机噪声z 比如高斯分布或者均匀分布运用一个深度网络函数G(z)从而希望得到一个新样本该样本的分布我们希望能够尽可能和真实数据的分布一致比如图像、视频等。 在证明GAN能够做得拟合真实分布时Goodfellow做了一个很大胆的假设用来评估样本真实度的Discriminator网络下文称D-网络具有无限的建模能力也就是说不管真实样本和生成的样本有多复杂D-网络都能把他们区分开。这个假设呢也叫做非参数假设。 当然对于深度网络来说咱只要不断的加高加深这还不是小菜一碟吗深度网络擅长的就是干这个的么。 但是正如WGAN的作者所指出的一旦真实样本和生成样本之间重叠可以忽略不计这非常可能发生特别当这两个分布是低维流型的时候而又由于D-网络具有非常强大的无限区分能力可以完美地分割这两个无重叠的分布这时候经典GAN用来优化其生成网络下文称G-网络的目标函数--JS散度-- 就会变成一个常数 我们知道深度学习算法基本都是用梯度下降法来优化网络的。一旦优化目标为常数其梯度就会消失也就会使得无法对G-网络进行持续的更新从而这个训练过程就停止了。这个难题一直一来都困扰这GAN的训练称为梯度消失问题。 WGAN来袭 为解决这个问题WGAN提出了取代JS散度的Earth-MoverEM来度量真实和生成样本密度之间的距离。该距离的特点就是即便用具有无限能力的D-网络完美分割真实样本和生成样本,这个距离也不会退化成常数仍然可以提供梯度来优化G-网络。不过WGAN的作者给出的是定性的解释缺少定量分析这个我们在后面解释LS-GAN时会有更多的分析。 现在我们把这个WGAN的优化目标记下来下文我们会把它跟本文的主角LS-GAN 做一番比较。 这里 f-函数和 g-函数 分别是WGAN的批评函数(critics)和对应的G-网络。批评函数是WGAN里的一个概念对应GAN里的Discriminator。该数值越高代表对应的样本真实度越大。 好了对WGAN就暂时说到这里。总结下由于假设中的无限建模能力使得D-网络可以完美分开真实样本和生成样本进而JS散度为常数而WGAN换JS散度为EM距离解决了优化目标的梯度为零的问题。 不过细心的读者注意到了WGAN在上面的优化目标12里有个对f-函数的限定它被限定到所谓的Lipschitz连续的函数上的。那这个会不会影响到上面对模型无限建模能力的假设呢 其实这个对f-函数的Lipschitz连续假设就是沟通LS-GAN和WGAN的关键因为LS-GAN就是为了限制GAN的无限建模能力而提出的。 熟悉机器学习原理的朋友会知道一提到无限建模能力第一反应就应该是条件反应式的反感。为什么呢无限建模能力往往是和过拟合无泛化性联系在一起的。 仔细研究Goodfellow对经典GAN的证明后大家就会发现之所以有这种无限建模能力假设一个根本原因就是GAN没有对其建模的对象--真实样本的分布--做任何限定。 换言之GAN设定了一个及其有野心的目标就是希望能够对各种可能的真实分布都适用。结果呢就是它的优化目标JS散度在真实和生成样本可分时变得不连续才使得WGAN有了上场的机会用EM距离取而代之。 所以某种意义上无限建模能力正是一切麻烦的来源。LS-GAN就是希望去掉这个麻烦取而代之以“按需分配”建模能力。 LS-GAN和“按需分配”的建模能力  好让我们换个思路直接通过限定的GAN的建模能力得到一种新的GAN模型。这个就是LS-GAN了。我们先看看LS-GAN的真容 这个是用来学习损失函数的目标函数。我们将通过最小化这个目标来得到一个“损失函数 (下文称之为L-函数)。L-函数在真实样本上越小越好在生成的样本上越大越好。 另外对应的G-网络通过最小化下面这个目标实现 这里注意到在公式6中对L-函数的学习目标 S中的第二项它是以真实样本x和生成样本的一个度量为各自L-函数的目标间隔把x和分开。 这有一个很大的好处如果生成的样本和真实样本已经很接近我们就不必要求他们的L-函数非得有个固定间隔因为这个时候生成的样本已经非常好了接近或者达到了真实样本水平。 这样呢LS-GAN就可以集中力量提高那些距离真实样本还很远真实度不那么高的样本上了。这样就可以更合理使用LS-GAN的建模能力。在后面我们一旦限定了建模能力后也不用担心模型的生成能力有损失了。这个我们称为“按需分配”。 上图就是对LS-GAN这种对建模能力”按需“分配的图示。 有了上面的准备我们先把LS-GAN要建模的样本分布限定在Lipschitz 密度上即如下的一个假设 那么什么是Lipschitz密度了简而言之Lipschitz密度就是要求真实的密度分布不能变化的太快。密度的变化随着样本的变化不能无限地大要有个度。不过这个度可以非常非常地大只要不是无限大就好。 好了这个条件还是很弱地大部分分布都是满足地。比如你把一个图像调得稍微亮一些它看上去仍然应该是真实的图像在真实图像中的密度在Lipschitz假设下不应该会有突然地、剧烈地变化。不是吗 然后有了这个假设我就能证明LS-GAN当把L-函数限定在Lipschitz连续的函数类上它得到地生成样本地分布和真实样本是完全一致 前面我们说了经典GAN事实上对它生成的样本密度没有做任何假设结果就是必须给D-网络引入无限建模能力正是这种能力在完美分割真实和生成样本导致了梯度消失结果是引出了WGAN。 现在我们把LS-GAN限定在Lipschitz密度上同时限制住L-函数的建模能力到Lipschitz连续的函数类上从而证明了LS-GAN得到的生成样本密度与真实密度的一致性。 那LS-GAN和WGAN又有什么关系呢 细心的朋友可能早注意到了WGAN在学习f-函数是也限定了其f-函数必须是Lipschitz连续的。不过WGAN导出这个的原因呢是因为EM距离不容易直接优化而用它的共轭函数作为目标代替之。 也就是说这个对f-函数的Lipschitz连续性的约束完全是“技术”上的考虑没有太多物理意义上的考量。 而且WGAN的作者也没有在他们的论文中证明WGAN得到的生成样本分布是和真实数据的分布是一致的。不过这点在我们更新的预印本中给出了明确的证明如下 换言之我们证明了WGAN在对f-函数做出Lipschitz连续的约束后其实也是将生成样本的密度假设为了Lipschiz 密度。这点上和LS-GAN是一致的两者都是建立在Lipschitz密度基础上的生成对抗网络。 好了让我们把LS-GAN和WGAN对L-函数和f-函数的学习目标放在一起仔细再看一看 LS-GAN WGAN 形式上来看LS-GAN和WGAN也有很大区别。WGAN是通过最大化f-函数在真实样本和生成样本上的期望之差实现学习的这种意义上它可以看做是一种使用“一阶统计量的方法。 LS-GAN则不同。观察LS-GAN优化目标的第二项由于非线性的函数的存在使得我们无法把L-函数分别与期望结合像WGAN那样得到一阶统计量。因为如此才使得LS-GAN与WGAN非常不同。 LS-GAN可以看成是使用成对的Pairwise“真实/生成样本对”上的统计量来学习f-函数。这点迫使真实样本和生成样本必须相互配合从而更高效的学习LS-GAN。 如上文所述这种配合使得LS-GAN能够按需分配其建模能力当一个生成样本非常接近某个真实样本时LS-GAN就不会在过度地最大化他们之间L-函数地差值从而LS-GAN可以更有效地集中优化那些距离真实样本还非常远地生成样本提高LS-GAN模型优化和使用地效率。 梯度消失问题 那LS-GAN是否也能解决经典GAN中的梯度消失问题呢即当它的L-函数被充分训练后是否对应的G-网络训练目标仍然可以提供足够的梯度信息呢 我们回顾下在WGAN里其作者给出G-网络的训练梯度并证明了这种梯度在对应的f-函数被充分优化后仍然存在。 不过仅仅梯度存在这点并不能保证WGAN可以提供足够的梯度信息训练 G-网络。为了说明WGAN可以解决梯度消失问题WGAN的作者宣称“G-网络的训练目标函数”在对其网络链接权重做限定后 是接近或者最多线性的。这样就可以避免训练目标函数饱和从而保证其能够提供充足的梯度训练G-网络。 好了问题的关键时为什么G-网络的训练目标函数是接近或者最多线性的这点WGAN里并没有给出定量的分析而只有大致的定性描述这里我们引用如下 “ ” 现在让我们回到LS-GAN看看如何给出一直定量的形式化的分析。在LS-GAN里我们给出了最优的L-函数的一种非参数化的解 这个定理比较长简单的来说就是所有的最优 L-GAN的解都是在两个分段线性的上界和下界L-函数之间。如下图所示 红线是上界绿线是下界。任何解出来最优L-函数一定在这两个分段线性的上下界之间包括用一个深度网络解出来L-函数。 也就是说LS-GAN解出的结果只要上下界不饱和它的得到的L-函数就不会饱和。而这里看到这个L-函数的上下界是分段线性的。这种分段线性的函数几乎处处存在非消失的梯度这样适当地控制L-函数地学习过程在这两个上下界之间地最优L-函数也不会出现饱和现象。 好了这样我们就给出了WGAN分析梯度消失时候缺失的哪个定量分析了。 最后我们看看LS-GAN合成图像的例子以及和DCGAN的对比。 看看在CelebA上的结果 如果我们把DCGAN和LS-GAN中Batch Normalization 层都去掉我们可以看到DCGAN模型取崩溃而LS-GAN仍然可以得到非常好的合成效果 不仅如此LS-GAN在去掉batch normalization后如上图b所示也没有看到任何mode collapse现象。 我们进一步通过实验看看、在LS-GAN中L-函数网络过训练后模型还能不能提供足够的梯度来训练G-网络。 下图是L-网络每次都训练而G-网络每个1次、3次、5次才训练时对应的用来更新G-网络的梯度大小(在log scale上) 我们可以看到即便当L-网络相对G-网络多训练若干次后更新G-网络的梯度仍然充分大而没有出现梯度消失的问题。 不仅如此随着训练的进行我们可以看到G-网络的梯度逐渐增大一直到一个相对比较稳定的水平。相对固定强度的梯度说明了G-网络的训练目标函数最终非常可能是达到一个接近线性的函数这是因为线性函数的梯度是固定的。 这个也进一步说明了LS-GAN定义的G-网络的训练目标函数没有发生饱和其定义是合理的也是足以避免梯度消失问题的。 对LS-GAN进行有监督和半监督的推广 LS-GAN和GAN一样本身是一种无监督的学习算法。LS-GAN的另一个突出优点是通过定义适当的损失函数它可以非常容易的推广到有监督和半监督的学习问题。 比如我们可以定义一个有条件的损失函数这个条件可以是输入样本的类别。当类别和样本一致的时候这个损失函数会比类别不一致的时候小。 于是我们可以得到如下的Conditional LS-GAN (CLS-GAN) 这样一旦得到损失函数在给定一个样本x后我们可以用最小化损失函数的那个类别来对样本进行分类即 我们可以看看在MNIST, CIFAR-10和SVHN上针对不同类别给出的合成图像的效果 半监督的训练是需要使用完全标注的训练数据集。当已标注的数据样本比较有限时会使得训练相应模型比较困难。 进一步我们可以把CLS-GAN推广到半监督的情形即把已标记数据和未标记数据联合起来使用利用未标记数据提供的相关分布信息来指导数据的分类。 为此我们定义一个特别的半监督的损失函数 对给定样本x我们不知道它的具体类别所以我们在所有可能的类别上对损失函数取最小作为对该样本真实类别的一个最佳的猜测。这与上面的公式7是一致的。 这样我们可以相应的推广CLS-GAN得到如下的训练目标 最优化损失函数 该训练目标可以通过挖掘各个类别中可能的变化帮助CLS-GAN模型合成某类中的更多的“新”的样本来丰富训练数据集。这样即便标注的数据集比较有限通过那些合成出来已标记数据也可以有效的训练模型。 比如在下面图中CLS-GAN模型通过对未标记MNIST数据进行分析可以按类别合成出更多不同书写风格的数字。 这些数字可以增加已标注的训练数据量进一步提供模型准确度而更准确的模型可以进一步提供CLS-GAN的合成图像的准确性。通过这种彼此不断的提高半监督的CLS-GAN在只有很少已标注训练数据下仍然可以做到准确的分类。 我们可以看下在SVHN上当只有1000张已标注训练数据时分类的准确度 下面是在CIFAR-10上4000张已标记数据下的分类准确度。 结论 那么究竟GANWGAN和LS-GAN谁更好呢 持平而论笔者认为是各有千秋。究竟谁更好还是要在不同问题上具体分析。 这三种方法只是提供了一个大体的框架对于不同的具体研究对象(图像、视频、文本等)、数据类型(连续、离散)、结构序列、矩阵、张量应用这些框架对具体问题可以做出很多不同的新模型。 当然在具体实现时也有非常多的要考虑的细节这些对不同方法的效果都会起到很大的影响。毕竟细节是魔鬼 笔者在实现LS-GAN也很多的具体细致的问题要克服。一直到现在我们还在不断持续的完善相关代码。 对LS-GAN有兴趣的读者可以参看我们分享的代码并提出改进的建议。  对研究GAN感兴趣的读者也欢迎联系笔者 guojunqgmail.com一起探讨相关算法、理论。 论文链接https://arxiv.org/abs/1701.06264 转https://zhuanlan.zhihu.com/p/25204020?group_id818602658100305920
http://www.pierceye.com/news/177934/

相关文章:

  • 宝宝投票网站怎么做网站首页添加代码
  • 网站开发分类网站建设的目标
  • 做旅游的网站有哪些专业做鞋子的网站
  • 深圳旅游网站开发新余网络推广
  • 平台网站建设ppt雪梨直播
  • 建设外贸类网站互联网下的网络营销
  • 网站开发需要的知识WordPress要什么环境
  • wordpress 多站点设置欧洲c2c平台
  • 赤峰网站开发公司做网站的公司怎么推销
  • 深圳福田区区住房和建设局网站wordpress 小程序开发
  • 网站建设与推cctv-10手机网站模板用什么做
  • 网站的建站方案网络科技有限公司
  • ps做图游戏下载网站有哪些内容广州网站(建设信科网络)
  • 专做皮鞋销售网站seo网站优化方案
  • 街区网站建设的意义做外贸网站 怎么收钱
  • 北京网站制作公司兴田德润可信赖给钱做h事都行的网站名
  • 合肥珍岛公司做网站推广怎么样如何查询网站备案进度
  • 源码论坛网站门户网站的含义
  • 零食店网站构建策划报告高级程序员培训
  • 重庆大足网站制作公司百度app智能小程序
  • flash网站与html5discuz做的网站上传到网站空间的文件
  • 做网站会什么网页设计类型与风格
  • 怎么做网站用于推广注册公司每年需要缴纳什么费用
  • 揭阳有哪家网站制作公司wordpress数据库备份恢复
  • 站长工具友链查询中国网站建设公司图片
  • 做原型的素材网站国内wordpress主题商
  • 合肥的电商网站设计wordpress 相册 链接
  • 试玩平台网站怎么做网站建设推荐中企动力
  • 衡水做网站建设台州网站建设选浙江华企
  • 某集团网站建设规划书用flash做的经典网站