生成式对抗网络GAN(一)

作者&投稿:左盛 (若有异议请与网页底部的电邮联系)
~

上面这张图很好的很好的阐述了生成式对抗网络的结构~~ 博弈论

此图给出了生成性对抗网络的概述。目前最重要的是要理解GAN是使两个网络协同工作的一种方式 - 而Generator和Discriminator都有自己的架构。为了更好地理解这个想法的来源,我们需要回忆一些基本的代数并问自己 - 我们怎么能欺骗一个比大多数人更好地分类图像的神经网络?

在我们详细描述GAN之前,让我们看一下类似的主题。给定一个训练有素的分类器,我们可以生成一个欺骗网络的样本吗?如果我们这样做,它会是什么样子?

事实证明,我们可以。

甚至更多 - 对于几乎任何给定的图像分类器,可以将图像变换为另一个图像,这将被高度置信地错误分类,同时在视觉上与原始图像无法区分!这种过程称为对抗性攻击,生成方法的简单性解释了很多关于GAN的内容。
精心计算的示例中的对抗性示例,其目的是错误分类。以下是此过程的说明。左边的熊猫与右边的熊猫无法区分 - 但它被归类为长臂猿。

图像分类器本质上是高维空间中的复杂决策边界。当然,在对图像进行分类时,我们无法绘制这个边界。但我们可以安全地假设,当训练结束时,网络并不是针对所有图像进行推广的 - 仅针对我们在训练集中的那些图像。这种概括可能不是现实生活的良好近似。换句话说,它适用于我们的数据 - 我们将利用它。

让我们开始为图像添加随机噪声并使其非常接近零。我们可以通过控制噪声的L2范数来实现这一点。数学符号不应该让您担心 - 出于所有实际目的,您可以将L2范数视为向量的长度。这里的诀窍是你在图像中拥有的像素越多 - 它的平均L2范数就越大。因此,如果噪声的范数足够低,您可以预期它在视觉上难以察觉,而损坏的图像将远离矢量空间中的原始图像。

为什么?

好吧,如果HxW图像是矢量,那么我们添加到它的HxW噪声也是矢量。原始图像具有相当密集的各种颜色 - 这增加了L2规范。另一方面,噪声是一组视觉上混乱的相当苍白的像素 - 一个小范数的矢量。最后,我们将它们添加到一起,为损坏的图像获取新的矢量,这与原始图像相对接近 - 但却错误分类!

现在,如果原始类 Dog 的决策边界不是那么远(就L2范数而言),这种加性噪声将新图像置于决策边界之外。

您不需要成为世界级拓扑学家来理解某些类别的流形或决策边界。由于每个图像只是高维空间中的矢量,因此在其上训练的分类器将“所有猴子”定义为“由隐藏参数描述的该高维斑点中的所有图像矢量”。我们将该blob称为该类的决策边界。

好的,所以,你说我们可以通过添加随机噪声轻松欺骗网络。它与生成新图像有什么关系?

现在我们假设有两个结构模型,相当于两个神经网络:

这是关于判别网络D和生成网络G的价值函数(Value Function),训练网络D使得最大概率地分对训练样本的标签(最大化log D(x)),训练网络G最小化log(1 – D(G(z))),即最大化D的损失。训练过程中固定一方,更新另一个网络的参数,交替迭代,使得对方的错误最大化,最终,G 能估测出样本数据的分布。生成模型G隐式地定义了一个概率分布Pg,我们希望Pg 收敛到数据真实分布Pdata。论文证明了这个极小化极大博弈当且仅当Pg = Pdata时存在最优解,即达到纳什均衡,此时生成模型G恢复了训练数据的分布,判别模型D的准确率等于50%。

接着上面最后一个问题:怎么才能生成我指定的图像呢?

指定标签去训练

顾名思义就是把标签也带进公式,得到有条件的公式:

具体怎么让CGAN更好的优化,这里不解释,就是平常的优化网络了。

参考文章:

本文大部分翻译此外文

通俗易懂

小博客的总结

唐宇迪大神




gan是什么意思gan的意思
1、gan的意思是生成式对抗网络。2、生成式对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。3、模型通过框架中(至少)两个模块:生成模型(GenerativeModel)和判别模型(DiscriminativeModel)的互相博弈学习产生相当好的输出。原始GAN理论中...

简述gan的原理
1、GAN全称为生成式对抗网络,是一种深度学习模型。基本原理是让两个神经网络相互对抗,从而生成逼真的图像、音频或文本等数据。具体说,GAN包括一个生成器和一个辨别器。生成器的任务是生成数据分布,而辨别器的任务是判定输入的数据分布是真实的还是生成的。2、在对抗过程中,生成器试图生成逼真的数据来...

生成对抗网络(GANs)—— WGAN 介绍
在深入探讨生成对抗网络(GANs)的世界中,我们曾揭示了它们面临的模式崩溃和梯度消失挑战。今天,我们将聚焦于Wasserstein GAN(WGAN),一种旨在解决这些问题的创新模型。WGAN的创新之处在于其独特的理论基础,它摒弃了经典GAN中的 Jensen-Shannon散度(JS散度),转而采用 Wasserstein 距离(W距离),也称...

GAN万字长文综述
GAN,全称生成对抗网络,以其独特的方式在各个领域展现了强大的潜力。本文将深入探讨其最新进展,从基础理论到实用应用,为你揭示这个前沿技术的奥秘。[1]首先,稳定训练一直是GAN的关键挑战。LSGAN(Least Squares GAN)通过最小二乘损失[2],巧妙地规避了传统GAN中sigmoid交叉熵损失可能导致的梯度饱和问...

生成对抗网络(GAN)中提到的隐空间(latent space)是什么意思?
在GANs的探索旅程中,理解并熟练运用隐空间,是解锁数据生成艺术的关键所在。总的来说,隐空间是生成对抗网络中的一个核心概念,它连接着潜在的隐变量世界和可见的数据现实,是创造、探索和理解复杂数据分布的神秘领域。通过这个空间,GANs能够魔术般地绘制出无限精彩的数字画卷。

gan网络什么意思
生成对抗网络,常用于图像生成。G是生成器(生成那个单词你可以自己查),A是鉴别器,N是network。通过生成器和鉴别器对抗的方式来生成逼真的数据,比如说生成图片。更详细的可以追问我

GAN-生成对抗性神经网络
探索深度:GAN的革命性之旅 2014年,神经网络领域的革命者Goodfellow揭开了GAN(生成对抗性网络)的神秘面纱,它以对抗性训练的创新方式,让生成器G和判别器D展开了一场智能博弈。GAN的核心在于,G通过输入随机噪声z生成图像,而D则作为裁判,判断这些图像的真实性。它们的目标是相互博弈,直至达到一个微妙...

生成式对抗网络GAN(一)
上面这张图很好的很好的阐述了生成式对抗网络的结构~~ 博弈论 此图给出了生成性对抗网络的概述。目前最重要的是要理解GAN是使两个网络协同工作的一种方式 - 而Generator和Discriminator都有自己的架构。为了更好地理解这个想法的来源,我们需要回忆一些基本的代数并问自己 - 我们怎么能欺骗一个比大多数...

生成式对抗网络GAN最近在NLP领域有哪些应用
GAN最开始是设计用于生成连续数据,但是自然语言处理中我们要用来生成离散tokens的序列。因为生成器(Generator,简称G)需要利用从判别器(Discriminator,简称D)得到的梯度进行训练,而G和D都需要完全可微,碰到有离散变量的时候就会有问题,只用BP不能为G提供训练的梯度。在GAN中我们通过对G的参数进行微小的...

GAN生成对抗网络(一)
在GAN发明之前,变分自编码器被认为是理论完美、实现简单,使用神经网络训练起来很稳定, 生成的图片逼近度也较高, 但是人类还是可以很轻易地分辨出真实图片与机器生成的图片。生成对抗网络包含了 2 个子网络: 生成网络(Generator, G)和判别网络(Discriminator,D), 其中生成网络负责学习样本的真实分布,...

双鸭山市19526394211: 生成式对抗网络GAN有哪些最新的发展,可以实际应用到哪些场景中 -
段干庙次水: 什么是区块链技术?每一个行业的人士理解不一样,相关的解释也因为现实应用越来越多而渐渐浮出水面,随着这种区块链技术的普及,相关的成果也是越来越大.我们要想理解这种技术就要从现实当中去深入的了解.我国目前经济社会信用环...

双鸭山市19526394211: 生成式对抗网络GAN在NLP领域最近有哪些应用 -
段干庙次水: 1. GAN最开始是设计用于生成连续数据,但是自然语言处理中我们要用来生成离散tokens的序列.因为生成器(Generator,简称G)需要利用从判别器(Discriminator,简称D)得到的梯度进行训练,而G和D都需要完全可微,碰到有离散变量...

双鸭山市19526394211: 生成对抗网络相比传统训练方法有什么优势 -
段干庙次水: 个人感觉,gan之所以比其他生成模型更优秀,是因为gan在本质上相当于最优化js距离而不是kl距离.虽然后者会得到一个更general的分布,但是从生成角度来讲,一个special的分布更能使人感到生成的数据更佳“真实”.

双鸭山市19526394211: 目前进行图像处理,通常使用什么神经网络 -
段干庙次水: 图像处理最常用的是卷积神经网络(CNN),有时也会用到生成式对抗神经网络(GAN).

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网