记录以备用,此刻在听邓紫棋的《倒数》
摘要:图像到图像的翻译主要学习两个视觉域之间的映射关系。主要有两个挑战:1)缺少对齐的成对的训练数据2)和对于一个输入图片的多种可能输出。这篇文章中,提出了基于解开表示disentangled representation的,在没有成对训练数据情况下,产生多样的输出。为了实现多样性,将图片分解为两个空间:一个域不变的内容空间来捕捉不同域之间的共享信息,和属性空间的特殊域。此模型从给定图片中提取解码的内容特征以及从属性空间中采样的属性向量来在测试阶段产生多样性图片。为了解决数据不成对问题,我们提出了一个新的基于解开表示的交叉循环一致性损失cross-cycle consistency loss。质量评估显示在没有成对训练数据的情况下我们能生成多样真实的图片。在量化比较中,我们用用户学习来评价真实性以及用感知距离度量来评价多样性。在MNIST-M和LineMod数据集上的应用性与其他先进算法的比较中具有有竞争力的表现。
与CycleGAN和UNIT比较 ,x,y是X,Y域中的图像。CycleGAN把下x,y映射到分别的隐空间。UNIT假设x,y能映射到共享的空间。我们的方法将x,y的隐空间解开到共享的内容空间C和特殊的属性空间A。
介绍,相关工作。
3.I2I翻译解开表示
我们的目标是学习在没有成对训练数据下两个视觉域X,Y的多模型映射。我们的由内容解码器属性解码器
生成器
和域判别器
以及一个内容判别器
。以X域为例,内容编码器映射图片到一个共享的,同域的内容空间
,属性编码器映射图片到特殊的属性空间
,生成器生成在内容和属性向量条件下的图片
,判别器
用于判别X域中的真实图片和生成图片。内容判别器
用于辨别两个域中提取出来的内容表示。为了在测试时实现多模态生成,我们对属性向量进行正则化,以便可以从先验高斯分布N(0;1)中抽取它们。
为了实现解开表示 我们运用了两个策略:权重共享和内容判别。我们共享最后一层和
的第一层权重。通过权重共享,我们强制内容表示映射到同一空间。但是共享映射函数的高层不能保证对于不同域同样的内容表示编码成同样的信息,提出了内容判别器辨别编码后的内容特征
。也就是内容编码器学习编码内容表示,这个内容表示不同域成员不能被内容判别器判别出来(理解就是把不同域的内容编码到同一表示)。
内容对抗损失函数为:
交叉循环一致性损失:利用解开的内容和属性表示来循环重建。
1.向前翻译:给定未配对的图像x,y,我们将其编码,通过交换属性表示实现第一次转换。来产生{u,v}
2向后翻译。将u,v编码,再次交换属性表示进行第二次转换。
于是交叉循环一致损失函数为:
其他的损失函数:
自重建损失: :
KL损失:为了在测试时随机采样,我们期望属性表示接近接近高斯分布:其中
隐藏回归损失: 促进可逆的图像和隐空间映射,从高斯分布中提取隐藏向量z作为属性表示,并且努力重构
因此整个损失函数为:
代码解析: