总说

这篇论文是基于CoGAN的,下面是总体结构图:
Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle
文章假设来自两个不同domain的同种语义的图片具有相同的latent vector。比如白天的上海滩与黑夜的上海滩,都是上海滩(高层语义一致,即latent vector一致),而这种语义特征再经过解码成具体的表现形式(底层网络用于语义的具体表现形式)。
因此网络设计如下:
E1E2的高层网络进行共享(具有相同的语义),得到相同的语义表达z之后,再进行解码。解码也最开始也要进行共享,一论文中的一个例子是,如果z表示一种场景,比如前方车后方树。这种场景在不同的domain中呈现不同的表达效果。G1G2最开始几层权值共享,表示z被赋予更多的信息:可能树和车的具体内容。但是对于不同domain,比如rainy或是sunny的情况下,树的颜色会不同,车的颜色以及一些具体的细节也会不同。

框架

总的loss:VAE+GAN+Cycle
Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle

VAE loss
Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle
后面的一项是NNL loss,这里用高斯分布来建模pG1pG2,只有这种情况下,NNL loss才是等价与图像与重建图像的绝对距离。
z1的采样z1q1(z1|x1)是通过z1=Eμ,1(x1)+η, 其中ηN(η|0,I).

GAN loss
Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle

Cycle loss
Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle

效果

Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle

感兴趣自己看论文吧:Unsupervised Image-to-Image Translation Networks

相关文章:

  • 2022-01-04
  • 2021-11-17
  • 2021-07-09
  • 2022-12-23
  • 2021-10-05
  • 2021-12-02
  • 2021-08-09
  • 2021-06-23
猜你喜欢
  • 2022-12-23
  • 2021-08-21
  • 2021-05-07
  • 2021-04-27
  • 2021-10-06
  • 2021-11-15
相关资源
相似解决方案