小论文(GAN)
关于对抗生成网络GAN
生成对抗网络GAN综述(生死看淡,不服就GAN)
基本GAN模型
受二人零和博弈的启发,2014年GoodFellow等在NIPS发表了生成对抗网络的开创性文章,该文章的主要观点是:GAN背后的基本思想是学习训练样本的概率分布。
GAN让两个网络(生成网络G和判别网络D)相互竞争,G不断捕捉训练集中的真实样本的概率分布,然通过加入随机噪声将其转换成赝品。D观察真实样本和赝品,判断这个赝品到底是不是真的。其过程是,首先让D观察(机器学习)一些真实样本,当D对真样本有了一些认真后,G通过生成赝品试图愚弄D,让D相信G生成的赝品是真的。有时G能成功骗过D,但随着D对真实样本的了解加深(即学习的样本数据越来越多),G发现越来越来难愚弄D,因此G也不断的提高生成自己仿制赝品的能力。如此循环往复,两者都得到提升。类似大自然的生物进化,适者生存。
GAN的目标函数
GAN的特点
GAN具备很多的优势
- 能学习真实样本的分布,探索样本的真实结构;
- 具有更强大的预测能力;
- 样本的脆弱性在很多的机器学习模型中都普遍存在,而GAN对生成样本非常鲁棒
- 通过GAN生成以假乱真的样本,缓解了小样本机器学习的困难;
- 为指导人工智能系统完成复杂任务提供了一种全新的思路;
- 与强化学习相比,对抗式学习更接近人类的学习机理;
- GAN与神经网络的一个重要区别是传统神经网络需要人工精心设计和构建损失函数,而GAN可以学习损失函数;
- GAN解决了先验概率难以确定的难题。
改进GAN模型
GAN虽然具备很多的优势,但却存在致命的弱点,及网络难以收敛。针对这一问题,出现了种类繁多的GAN变形模型。
CGAN模型(条件生成对抗网络)
对G和D都增加了额外信息C作为条件,用于指导样本的生成。如果条件变量C是类别标签,那么CGAN是把无监督的GAN变成了有监督的GAN。
CGAN被证明非常有效,并广泛用于后续的相关研究工作中。
LAPGAN
LAPGAN模型的主要操作是上采样和下采样,其优点是每次只考虑样本和生成样本之间的残差。从某种程度上讲,LAPGAN类似与残差网络。
DCGAN模型
卷积神经网络CNN在有监督学习的各项任务中均表现出色,但在无监督学习领域却不尽人意。DCGAN模型将CNN与GAN结合到一起,GAN模型在结构上需做如下变化。
- 将池化层用卷积层替代,判别器用步幅卷积替代,生成器用反卷积替代。
- G和D都是用BN策略解决初始化敏感的问题,防止G把所用的样本都视为同一类样本。
- 直接将BN应用到所用层会导致样本震荡和模型的不稳定,在G输出层和D输入层不采用BN可以防止这一问题。
- 移除全连接的全局池化层增加了模型的稳定性,但会影响收敛速度。
- G中除了输出层外的所有层都使用了ReLU,输出层采用tanh.D的所有层使用LeakyReLU.
GAN相关问题的研究
假设太过自由的问题
与其他生成模型相比,GAN模型的最大优势是不再要求一个假设的样本分布,而是通过采样达到逼近真实样本的目的。其缺点是太过自由,如果图像较大,GAN的收敛便不可控。为了解决这个问题,一种很自然的想法是给GAN添加一些约束,CGAN便应用而生。另一种思路源于Deep Mind的DRAW项目,即不让GAN一次完成全部任务,而是分成多次生成一张完整的图片。DRAW使用了一种有序的VAE模型,让机器一点点写出一个个数字。LAPGAN就是采用这种思想,值得关注。
空间关系表达问题
训练过程的稳定性问题
虽然GAN模型引起了极大的关注,但是由于不需要先验知识,过于自由的训练方式使得GAN对初始参数极其敏感,造成训练过程极其不稳定,并存在严重的模式忽略(mis-sing modes)问题。模式忽略是指训练样本中某一类模式的 样本如果占比很小,则很容易在训练时被忽略掉,使得GAN只能学会大样本模型的表达,从而使生成的样本集中在某几个模式上缺乏多样性。当模式忽略出现时,更容易加剧GAN训练的不稳定性。
精准预测的研究
提出了一种对抗梯度差损失预测器(AGDL),它能通过几帧桌球游戏视频构造模型,预测球被击中后下一 帧球的运动情况。
应用
超分辨图像的生成
基于相似性感知方法提出了一种新的损失 函数与GAN本身的损失函数相结合的方法-SRGAN,实现了超分辨率图像的生成。SRGAN的基本原理是:
- 用生成图像的整体方差作为图像空间的损失约束项,以保证图像的平滑性;
- SRGAN将生成样本和真实样本分别输入VGG-19网络,然后根据得到的特征图的差异来定义损失项。其与GAN的主要区别在于加入了规则化的特征图差异损失,而不是直接累加求和。
- 将对抗损失、图像平滑项、特征图差异这3个损失项 作为SRGAN模型的损失函数,能够生成比其他方法效果更好得多的超分辨率图像。
文本描述生成图像
基于噪声数据生成图像的任务是“噪声→图”的问题;而 给定属性生成图像的任务是“图→图”的问题;则另 辟蹊径,实现“文本→图”,这对于推动GAN以及G在实际中的应用具有一定的积极影响。
视频帧预测
视频处理的一个应用,可以同时生成和预测下一视频帧。
为了生成视频帧,该模型的G将动态前景部分和静态背 景部分分开建模和生成,构建双向生成器,然后将生成的前景 和背景进行组合后作为G生成的视频;D的主要任务是识别 出视频帧间的行为,从而指导G生成视频。
G和D互相竞争,生成了越来越真实的视频。当让人从两种视频中挑选真实的视频时,人挑选了机器合成而非真实 视频的比例只有20%。
艺术风格的迁移
若一个卷积网络足够深,则其可以在高层表示图像的高 级抽象特征,如果把这些高级抽象特征应用到另外一个图上, 那么另外一个图也可以继承到这些高级特征。
未来研究方向
GAN的未来研究方向应该集中在以下的几个方向:
- 用CGAN模型替代GAN。关键是对输入条件的研究,即什么样的场景适合什么样的条件;
- 改进输入的随机噪声z,可根据真实样本x用其他网络学习一个;
- 基于先验知识的相关建模研究工作出现较晚,很多问题值得探讨;
- 半监督学习问题。纯无监督的学习存在收敛慢、稳定 性差的问题,现有的许多GAN研究都表明通过加入少量类别标签,引入有标签数据的类别损失度量,不仅在功能上能实现半监督学习,而且也有助于GAN的稳定训练;
- 提升GAN的训练效率。由于训练的稳定性问题还没有得到很好的解决,因此对训练效率的研究目前并不深入。相比于其他生成式模型,GAN的速度也不算很慢;
- 将GAN与其他模型结合,综合利用各模型的优点来完成样本生成任务是一条很好的思路。这方面已出现了许多成果,如多个GAN进行组合的模型、GAN与CNN组合的模型、GAN与RNN的组合模型等。
-
是否存在更好的学习模型取代深度网络?最近,南京大学周志华教授提出的“gcForest模型(深度森林)” ,引发 了很多研究者的关注。实验表明,该模型的性能与深度神经网络之间有很强的竞争力;另外,在几乎完全一样的超参数设 置下,gcForest具有如下优点:
- gcForest天然适用于并行的部署gcForest,因此训练过程效率高且可扩展,在处理不同领域的不同数据时,也能达到极佳的性能。
- 训练成本低,在一台PC上的训练时间与在GPU上运行的深度神经网络差不多。
- gcForest在小样本训练数据的情况下也能照常运转, 而深度神经网络需要大量的训练数据。
结束语
GAN是深度学习领域中比较重要的一个模型, 为无监督学习模型提供了一个强大的计算框架,也是人工智 能研究的一个重要工具。GAN的一个很重要的特性就是能 够像人类样一理解周围复杂的世界。在GAN这个方向上继续探索,有可能成功打造出比识别层次更高的、能够理解世界 的机器学习模型。