当前位置: 首页 > news >正文

广告在线设计制作考拉seo

广告在线设计制作,考拉seo,vps里面怎么建立网站,微信服务号开发方案点击上方“CVer”#xff0c;选择加星标或“置顶”重磅干货#xff0c;第一时间送达作者#xff1a;YTimo(PKU EECS) 研究方向#xff1a;深度学习#xff0c;计算机视觉本文转载自#xff1a;SIGAI摘要生成对抗网络(Generative adversarial network, GAN)… 点击上方“CVer”选择加星标或“置顶”重磅干货第一时间送达作者YTimo(PKU EECS)   研究方向深度学习计算机视觉本文转载自SIGAI摘要生成对抗网络(Generative adversarial network, GAN)[1]自2014年由Ian Goodfellow等人提出后就越来越受到学术界和工业界的重视。而随着GAN在理论与模型上的高速发展它在计算机视觉、自然语言处理、人机交互等领域有着越来越深入的应用并不断向着其它领域继续延伸。其中GAN在图像生成上取得了巨大的成功这取决于GAN在博弈下不断提高建模能力最终实现以假乱真的图像生成。围绕GAN的研究可以分为两条主线一是理论主线从数学理论上研究如何解决GAN的不稳定性和模式崩塌问题或者从信息理论和基于能量的模型等不同角度重新阐述它。二是应用主线致力于将GAN应用于计算机视觉领域、利用GAN进行图像生成(指定图像合成、文本到图像图像到图像、视频)以及将GAN应用于NLP或其它领域。利用GAN进行图像生成和转换是当前研究最多的并且该领域的研究已经证明了GAN在图像合成中的巨大潜力。本文从GAN的基本模型开始简要总结GAN的原理和改进介绍其在图像生成与转换中的研究和应用并讨论其理论和应用中尚存在的挑战。正文引言在机器学习中生成模型可以用来直接对数据建模也可以用来建立变量间的条件概率分布。它的应用十分广泛可以用来不同的数据进行建模比如图像、文本、声音等。以图像生成为例我们将图像表示为一个随机向量X其中每一维都表示一个像素值。假设自然场景的图像都服从一个未知的分布p(x)我们希望通过一些观测样本来估计其分布高维随机向量一般比较难以直接建模需要通过一些条件独立性来简化模型。但是自然图像中不同像素之间存在的复杂的依赖关系很难用一个明确的图模型来描述其依赖关系因此直接建模p(x)比较困难对生成模型的要求很高。在GAN之前人们就已经研究了很多生成模型随着深度神经网络的发展生成模型也得到了巨大的飞跃。目前有影响力的生成模型主要有Autoregressive model(自回归模型)[2][3]、VAE[4]、GLOW[5]和GAN[1]1.自回归模型(Autoregressive model)自回归模型在PixelRNN[2]和PixelCNN[3]上展示了很不错的实验效果但是由于是按照像素点去生成图像导致计算成本高在可并行性上受限在处理大型数据如大型图像或视频具有一定的麻烦。2. 变分自编码器(VAE)VAE是在Autoencoder的基础上让图像编码的潜在向量服从高斯分布从而实现图像的生成优化了数据对数似然的下界VAE在图像生成上是可并行的 但是VAE存在着生成图像模糊的问题。3.基于流的方法(Glow)Glow提出了一种新的基于流的生成模型通过寻找可逆的双射来实现输入和潜在空间的相互转换其在标准图像建模基准上的对数似然性方面展示了改进的定量性能特别是在高分辨率人脸图像合成和插值生成上取得了惊艳的效果。4. 生成对抗网络(GAN)GAN的思想就是利用博弈不断的优化生成器和判别器从而使得生成的图像与真实图像在分布上越来越相近。GAN生成的图像比较清晰在很多GAN的拓展工作中也取得了很大的提高。但是GAN生成中的多样性不足以及训练过程不稳定是GAN一直以来的问题。然而GAN存在的问题并没有限制GAN的发展在GAN改进和应用方面的文章层出不穷。其中GAN在图像生成上的应用最为突出当然在计算机视觉中还有许多其他应用如图像绘画图像标注物体检测和语义分割。在自然语言处理中应用GAN的研究也是一种增长趋势如文本建模对话生成问答和机器翻译。在不同的任务中训练GAN可能面临不同的问题并且需要更多技术这也使其成为具有挑战性但有趣的研究领域。GAN的基本原理与研究进展朴素GAN的基本模型GAN受博弈论中的零和博弈启发将生成问题视作判别器和生成器这两个网络的对抗和博弈生成器从给定噪声中(一般是指均匀分布或者正态分布)产生合成数据判别器分辨生成器的的输出和真实数据。前者试图产生更接近真实的数据相应地后者试图更完美地分辨真实数据与生成数据。由此两个网络在对抗中进步在进步后继续对抗由生成网络得到的数据也就越来越完美逼近真实数据从而可以生成想要得到的数据(图片、序列、视频等)。图一GAN的基本结构理论上GAN可以将任意的分布作为输入如上图所示z输入为随机噪声在实验中我们多取z ∼ (0,1) 或z ~ [-1,1] 的均匀分布作为输入。生成器G的参数为θ输入z在生成器下得到输出可以被视为从分布中抽取的样本。对于训练样本x的数据分布为生成器G的目标是使pg近似判别器D的目标则是尽可能区分生成样本和真实样本的真假通过最大-最小博弈来进行训练这种博弈可公式化为其中第一项的logD(x)表示判别器对真实数据的判断第二项表示对合成数据的判断。通过这样一个最大最小(Max-min)博弈循环交替地分别优化G和D来训练所需要的生成式网络与判别式网络直到到达Nash均衡点。GAN的问题与研究进展最早GAN的提出是为了通过生成模型和判别模型对抗来达到对生成图片最大相似度的伪装比起VAE生成的图片会比较清晰。但是原始GAN模型本身也存在一些问题主要的问题有两个(1)判别器越好生成器的梯度消失越严重这样会导致在网络训练上很多时候生成器的参数基本上不会发生改变。(2)由于网络是对抗式的常常会造成训练时模型的崩溃(collapse mode)在训练时往往需要权衡训练的生成器与鉴别器的参数来防止崩溃的发生。这样在实际的应用上也带了很多不便。WGAN[6]和WGAN-GP[7]首先分析了原始GAN的问题前者通过对生成样本和真实样本加噪声使得两个分布产生重叠理论上可以解决训练不稳定后者引入梯度惩罚使得GAN训练更加稳定收敛更快同时能够生成更高质量的样本。LSGAN[8] 使用最小二乘损失函数代替了原始GAN的损失函数让模型在训练的过程中更多的关注真实度不高的样本缓解了GAN训练不稳定和生成图像质量差多样性不足的问题。DCGAN[9]将CNN引入生成器和判别器借助CNN更强的拟合与表达能力缓解GAN的问题的同时大大提高了生成图像的能力。图二DCGAN生成器结构图此外在研究中也产生了很多GAN的变种比较突出的有将GAN与Encoder结合起来的BiGAN[10]和ALI[11]与VAE结合起来的VAE-GAN[12]添加额外辅助分类器的ACGAN[13]以及添加监督信息的cGAN[14]引入信息理论的infoGAN[15]和引入能量的概念与方法的EBGAN[16]等。这些变种在不同的目标上增强了GAN模型的拟合能力与鲁棒性极大地扩展了GAN的应用范围。GAN-图像生成根据不同的GAN所拥有的生成器和判别器的数量可以将GAN图像生成的方法概括为三类直接方法迭代方法和分层方法[17]。图三GAN在图像生成中的三类方法直接法早期的GANs都遵循在其模型中使用一个生成器和一个判别器的原理并且生成器和判别器的结构是直接的没有分支。如GAN [1]、DCGAN [9]、ImprovedGAN [18]InfoGAN [15]f-GAN [19]和GANINT-CLS [20]。这类方法在设计和实现上比较容易通常也能得到良好的效果。分层法分层法的主要思想是将图像分成两部分如“样式和结构”和“前景和背景”然后在其模型中使用两个生成器和两个鉴别器其中不同的生成器生成图像的不同部分然后再结合起来。两个生成器之间的关系可以是并联的或串联的。以SS-GAN [21]为例其使用两个GAN一个Structure-GAN用于生成表面结构然后再由Style-GAN补充图片细节最后生成图片整体结构如下所示图四SS-GAN的分层结构迭代法迭代法使用具有相似或甚至相同结构的多个生成器经过迭代生成从粗到细的图像。以LAPGAN [22]为例LAPGAN中的多个生成器执行相同的任务最低级别的生成器仅将噪声向量作为输入并输出图像而其他生成器都从前一个生成器获取图像并将噪声矢量作为输入这些生成器结构的唯一区别在于输入/输出尺寸的大小每一次迭代后的图像都拥有更多清晰的细节。图五LAPGAN的迭代结构GAN-图像转换图像到图像的转换被定义为将一个场景的可能表示转换成另一个场景的问题例如图像结构图映射到RGB图像或者反过来。该问题与风格迁移有关其采用内容图像和样式图像并输出具有内容图像的内容和样式图像的样式的图像。图像到图像转换可以被视为风格迁移的概括因为它不仅限于转移图像的风格还可以操纵对象的属性。图像到图像的转换可分为有监督和无监督两大类根据生成结果的多样性又可分为一对一生成和一对多生成两类有监督下图像到图像转换在原始GAN中因为输出仅依赖于随机噪声所以无法控制生成的内容。但cGAN[14]的提出使得我们可以将条件输入y添加到随机噪声Z以便生成的图像由G(z,y)定义。条件y可以是任何信息如图像标注对象的属性、文本描述甚至是图片。图六CGAN的结构如果引入图片作为监督信息cGAN就可以完成一些paired data才能完成的任务如把轮廓图转化成真实图片把mask转化成真实图把黑白图转化成真实图等。其中最具代表性的工作为pix2pix[23]图七pix2pix结构图pix2pix提出将cGAN的损失与L1正则化损失相结合使得生成器不仅被训练以欺骗判别器而且还生成尽可能接近真实标注的图像使用L1而不是L2的原因是L1产生较少的模糊图像。其损失函数设计如下(1)含有条件信息的GAN损失(2)约束自相似性的L1损失(3)总的目标函数图八pix2pix生成效果无监督的图像到图像转换虽然有监督下图像转换可以得到很好的效果但需要的条件信息以及paired image成为其很大的限制。但如果用无监督学习学习到的网络可能会把相同的输入映射成不同的输出这就意味着我们输入任意xi并不能得到想要的输出yi。CycleGAN [24]、DualGAN [25] 和DiscoGAN [26]突破了这个限制这几项工作都提出了一致/重构损失(consistent loss)采取了一个直观的思想即生成的图像再用逆映射生成回去应该与输入的图像尽可能接近。在转换中使用两个生成器和两个判别器两个生成器和进行相反的转换试图在转换周期后保留输入图像。以CycleGAN为例在CycleGAN中有两个生成器Gxy用于将图像从域X传输到YGxy用于执行相反的转换。此外还有两个判别器Dx和Dy判断图像是否属于该域。图九cycleGAN结构其Consistent loss由L1进行描述图十CycleGAN的生成效果当然尽管CycleGAN 和DualGAN具有相同的模型结构但它们对生成器使用不同的实现。CycleGAN使用卷积架构的生成器结构而DualGAN遵循U-Net结构。在实践中可以根据不同的需求更换生成器和判别器的实现结构。UNIT[27]在循环一致损失基础上为无监督图像生成增加了新的思路将VAE与GAN结合起来假设两个编码器共享相同的隐空间。我们知道GAN的生成器的输入为一个已知分布 Z 的latent code z. 生成器把这个分布映射成另外一个分布这个分布中的一个样本点就是G(z). 由于UNIT涉及到的是2个domain之间的关系即latent code z 既要映射到domainX1它的样本点是G1(z),又要映射到domain X2 ,它的样本点是G2(z)。生成器G把latent code 变成图像而编码器E把图像还原成latent code. 共享latent code其实就是。基于共享潜在空间假设UNIT强制在编码器的最后几层之间以及发生器的前几层之间进行权重共享。图十一UNIT的思路和网络结构如图十一所示两个domainX1,X2的样本x1,x2 输入两个编码器中G1(z1) G1(E1(x1))是还原原图 x1,G1(z2) G1(E2(x2))是生成有x1风格的图像G2(z2) G2(E2(x2))是还原原图x2, G2(z1) G2(E1(x1))是生成有X2风格的图像。D1,D2分别是domainX1,X2 的判别器。在笔者所做的一些人脸数据集上的实验中UNIT取得了比CycleGAN系列更好的效果。从一对一生成到一对多生成(one-to-many translation)从pix2pix[23]到CycleGAN系列[24][25][26]再到UNIT[27]这些方法实现的image-to-image translation不管是有监督的还是无监督的都是一对一的也就是说输入一张图片只能产生一种风格缺乏多样性。但其实大多数情况下image translation是多对多的也就是一张图片对应不同风格的转换图片。比如我们设计衣服时一张轮廓图其实可以设计成不同风格的衣服。再比如同一个场景不同的光照条件就是一个模式不一定只有白天和黑夜还可能有傍晚清晨等。BicycleGAN[28]首先对此进行了尝试其在模型中添加随机噪声通过随机采样使噪声得到不同的表达并在输出与潜在空间上添加双向映射。双向映射指的是不仅仅可以由潜在编码映射得到输出也可以由输出反过来生成对应的潜在编码这可以防止两个不同的潜在编码生成同样的输出避免输出的单一性。但直接用不同的随机噪声来产生多样化的结果由于mode collapse的存在很容易训练失败。MUNIT[29]和DRIT[30]在UNIT的基础上将latent code进一步细化为内容编码 c 和风格编码 s 。不同domain的图像共享内容编码空间 C 而独享风格编码空间 S 将内容编码c与不同的风格编码s结合起来就能得到更鲁棒的多样性的结果。图十二MUNIT将latent code分为内容c和风格c如下所示BicycleGAN、MUNIT和DRIT都取得了不错的生成结果总结GAN在图像生成和转换中的巨大潜力已经得到研究证明利用GAN进行图像到图像间的生成和转换最好已经到达几乎无法分辨的地步。除此之外利用GAN进行指定图像合成生成高清图像和视频以及将GAN应用于NLP和其他领域的研究都还受到研究者们的重点关注。GAN图像生成仍然会是一个充满挑战与价值的课题存在很大的研究空间。小编相关推荐http://www.tensorinfinity.com/paper_14.html(Largescale GANtraining for high fidelity natural image synthesis文章解读)     生成式对抗网络模型综述Generative Adversarial Nets 论文解读参考文献[1] Goodfellow, Ian, et al. “Generative adversarial nets.” Advances in neural information processing systems. 2014.https://arxiv.org/abs/1406.2661[2] Oord A, Kalchbrenner N, Kavukcuoglu K. Pixel recurrent neural networks[J]. arXiv preprint arXiv:1601.06759, 2016.[3] Van den Oord A, Kalchbrenner N, Espeholt L, et al. Conditional image generation with pixelcnn decoders[C]//Advances in neural information processing systems. 2016: 4790-4798.[4] Kingma D P, Welling M. Auto-encoding variational bayes[J]. arXiv preprint arXiv:1312.6114, 2013.https://arxiv.org/pdf/1312.6114.pdf[5] Kingma D P, Dhariwal P. Glow: Generative flow with invertible 1x1 convolutions[C]//Advances in Neural Information Processing Systems. 2018: 10215-10224.[6] M. Arjovsky, S. Chintala, and L. Bottou, “Wasserstein gan,” arXiv preprint arXiv:1701.07875, 2017.https://arxiv.org/abs/1701.07875[7] I. Gulrajani, F. Ahmed, M. Arjovsky, V. Dumoulin, and A. Courville, “Improved training of wasserstein gan,” arXiv preprint arXiv:1704.00028, 2017.https://arxiv.org/abs/1704.00028[8] Mao X, Li Q, Xie H, et al. Least squares generative adversarial networks[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 2794-2802.[9] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.[10] J. Donahue, P. Krähenbühl, and T. Darrell, “Adversarial feature learning,” arXiv preprint arXiv:1605.09782, 2016.https://arxiv.org/abs/1605.09782[11] V. Dumoulin, I. Belghazi, B. Poole, A. Lamb, M. Arjovsky, O. Mastropietro, and A. Courville, “Adversarially learned inference,”arXiv preprint arXiv:1606.00704, 2016.https://arxiv.org/abs/1606.00704[12] A. B. L. Larsen, S. K. Sønderby, H. Larochelle, and O. Winther,“Autoencoding beyond pixels using a learned similarity metric,”arXiv preprint arXiv:1512.09300, 2015.https://arxiv.org/abs/1512.09300[13] Odena A, Olah C, Shlens J. Conditional image synthesis with auxiliary classifier gans[C]//Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017: 2642-2651.[14] M. Mirza and S. Osindero, “Conditional generative adversarial nets,”arXiv preprint arXiv:1411.1784, 2014.https://arxiv.org/abs/1411.1784[15] Chen X, Duan Y, Houthooft R, et al. Infogan: Interpretable representation learning by information maximizing generative adversarial nets[C]//Advances in neural information processing systems. 2016: 2172-2180.[16] Zhao J, Mathieu M, LeCun Y. Energy-based generative adversarial network[J]. arXiv preprint arXiv:1609.03126, 2016.[17] Huang H, Yu P S, Wang C. An introduction to image synthesis with generative adversarial nets[J]. arXiv preprint arXiv:1803.04469, 2018.[18] T. Salimans, I. Goodfellow, W. Zaremba, V. Cheung, A. Radford,and X. Chen, “Improved techniques for training gans,” in Advances in Neural Information Processing Systems, 2016, pp. 2226–2234.https://arxiv.org/abs/1606.03498[19] S. Nowozin, B. Cseke, and R. Tomioka, “f-gan: Training generative neural samplers using variational divergence minimization,”arXiv preprint arXiv:1606.00709, 2016.https://arxiv.org/abs/1606.00709[20] S. Reed, Z. Akata, X. Yan, L. Logeswaran, B. Schiele, and H. Lee,“Generative adversarial text to image synthesis,” arXiv preprint arXiv:1605.05396, 2016.https://arxiv.org/abs/1605.05396[21] X. Wang and A. Gupta, “Generative image modeling using style and structure adversarial networks,” arXiv preprint arXiv:1603.05631, 2016.https://arxiv.org/abs/1603.05631[22] E. L. Denton, S. Chintala, a. szlam, and R. Fergus, “Deep generative image models using a laplacian pyramid of adversarial networks,” in Advances in Neural Information Processing Systems Curran Associates, Inc., 2015, pp. 1486–1494.https://arxiv.org/abs/1506.05751[23] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros, “Image-to-image translation with conditional adversarial networks,” arXiv preprint arXiv:1611.07004, 2016.https://arxiv.org/abs/1611.07004[24] J.-Y. Zhu, T. Park, P. Isola, and A. A. Efros, “Unpaired image-to-image translation using cycle-consistent adversarial networks,”arXiv preprint arXiv:1703.10593, 2017.https://arxiv.org/abs/1703.10593[25] Z. Yi, H. Zhang, P. T. Gong et al., “Dualgan: Unsupervised dual learning for image-to-image translation,” arXiv preprint arXiv:1704.02510, 2017.https://arxiv.org/abs/1704.02510[26] T. Kim, M. Cha, H. Kim, J. Lee, and J. Kim, “Learning to discover crossdomain relations with generative adversarial networks,”arXiv preprint arXiv:1703.05192, 2017.https://arxiv.org/abs/1703.05192[27] Liu M Y, Breuel T, Kautz J. Unsupervised image-to-image translation networks[C]//Advances in Neural Information Processing Systems. 2017: 700-708.[28] Zhu J Y, Zhang R, Pathak D, et al. Toward multimodal image-to-image translation[C]//Advances in Neural Information Processing Systems. 2017: 465-476.[29] Huang X, Liu M Y, Belongie S, et al. Multimodal unsupervised image-to-image translation[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 172-189.[30] Lee H Y, Tseng H Y, Huang J B, et al. Diverse image-to-image translation via disentangled representations[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 35-51.CVer-GAN交流群扫码添加CVer助手可申请加入CVer-GAN交流群。一定要备注研究方向地点学校/公司昵称(如GAN上海上交卡卡)不根据格式申请一律不通过。▲长按加群这么硬的综述分享麻烦给我一个在在看▲长按关注我们麻烦给我一个在看
http://www.pierceye.com/news/511281/

相关文章:

  • 做一个网站 多少钱成都到西安
  • 哪个网站做外贸好平面设计广告作品
  • 兰州专业做网站产品网站做营销推广
  • 唐山做网站哪家好闸北手机网站建设
  • 网站建设作业百度云资源展厅设计搭建
  • 阿里巴巴网址惠州seo全网营销
  • 阳江网站设计公司兰州新区建站
  • 3d网站建设免费网站注册申请
  • 门户网站建设方案模板那个做我女朋友的网站
  • 网站建设新手教程视频英语复试口语模板
  • 网站肯定被k北京高端网站建
  • 成都手机网站设计山东省建设监理协会网站6
  • 长春网站建设那家好沛县做网站
  • 做网络写手 哪个网站比较好电商网站开发用什么语言
  • 如何做网站资讯淘宝官网登录入口
  • 江苏建设工程招标网官方网站免费网址怎么申请注册
  • 河池网站优化网络宣传渠道有哪些
  • 外贸建立网站怎么做42区 网站开发指南
  • wordpress多本小说站出售延安做网站
  • 北京快速网站建设找工作一般上什么网站比较好
  • 做外贸必须有公司网站么下沙网站制作
  • 西安学校网站建设网站搜索工具
  • 小型网站的建设方案龙江人社app二维码图片
  • 西宁微网站建设wordpress更新文章post.php错误
  • 网络营销网站平台有哪些众希网站建设
  • 网站建设营销的技巧公司招聘网站排行榜
  • 长治网站建设收费多少农村自建房设计图 户型图
  • 广州网站建设 骏域网站建设做搜狗网站优化首页软
  • 广州网站设计软件简约大方网站
  • 网站建设与管理专业好吗做国际贸易如何建网站