这篇文章将CNN应用在GAN上。
在传统的CNN结构上主要做了一下三个方面的修改:
1) 使用strided convolutions代替deterministic spatial pooling functions。这样可以使网络自己学习到spatial function
2) 消除全连接层。global averaged pooling 虽然可以使模型stability但是会hurt convergence speed。所以直接连接highest convolutional features到生成器(判决器)的输入和输出。
3)Batch Normalization,这对于deep generator的训练是重要的,有助于阻止mode collapse现象。然而在每一层都是用Batch Normalization会导致样本震荡和模型不稳定。所以只在generator 的输出层和discriminator的输入层使用。

Generator除了最后一层是用tanh**函数,其他使用ReLU。Discriminator使用leaky rectified activation。
论文:DCGAN

论文:DCGAN

这论文写的都是啥啊QAQ
看不进去。

相关文章:

  • 2022-12-23
  • 2022-01-21
  • 2021-07-03
  • 2021-09-28
  • 2021-06-01
  • 2021-07-12
猜你喜欢
  • 2021-12-28
  • 2021-07-11
  • 2021-07-25
  • 2022-01-03
  • 2021-12-05
  • 2021-06-15
  • 2021-07-31
相关资源
相似解决方案