论文为:PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION

摘要:

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

1.提出了一种新的训练对抗神经网络的方法。核心思想是逐步训练生成器和分别器:从低分辨率开始,随着训练进程推进,逐步增加新的层来提炼细节。这种方法不仅加快了训练速度并且更加稳定,可以产生高质量的图像

2.提出了一些实施的细节对于消除生成器和分辨器的不好的竞争

3.提出了新的方法来评估GAN产生的结果

 

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

首先从低分辨率的图像开始训练,然后逐渐增加生成器和分别器层数。这种逐步增加的训练方法能够首先训练图像的大框架,然后逐步转义注意力到细节上去,而不是一下子学完所有的东西。

使用的生成器和分别器彼此之间是镜像关系。当新的层被加入网络时,我们就平滑模糊。如图2所示,这样就避免给已经训练好的网络带来突然地变化

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

我们的训练首先输入4*4像素图片,然后输入8*8......1024*1024像素的图片(也就是分辨率越来越高),分辨率增高的同时,网络的层数也在增加

 

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

在(b)中,我们对那些处理高分辨率的层类似于残差模块一样(图b中确实是这样的,16*16经过加倍之后一个是直接输出,一个还要经过32*32层的处理在输出,最后用线性叠加的方式整合在一起,输出一个32*32的图片)。torgb表示将信息转换为rgb图。from rgb正相反,表示从彩色图中提取信息,他们都是1*1的卷积模块。当训练分类器的时候,我们用真实的图片降低分辨率到现在的分辨率。在分辨率转换的时候,使用类似于generate的方式,对以前的分辨率进行插值,然后线性组合两种分辨率

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

GAN网络层中的参数由于两个网络的不健康竞争,会变得很大。所以以前的人就提出了batch_norm法来使各个权重回归中间区域。但是作者他们却没有在GAN上发现这个问题,因此认为GAN的实际要求会限制参数的变大。作者使用了不同的方法,包含了两个元素,但这两个元素中都不包含可学习的参数

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

 

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

表2:每个网络主要是由三层模块组层的。最后一个1*1的卷积层在generator中的是torgb模块,在discriminator中的则是fromrgb模块我们从4*4分辨率的图片开始,训练网络直到我们给descrimnator训练完800k张真实图片。然后我们交替进行两个步骤:训练第一个3层模块用800k张图,稳定网络.....

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

降采样和升采样2*2的average pooling

PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION Tero Karras

minibatch,在图像分辨率小的时候大,后面随着分辨率越来越高,minibatch越来越小

相关文章: