问题:监督、生成模型概念

Gan的生成模型和HMM、贝叶斯生成模型的区别

1 train data和generator data 同分布same distribution怎么理解?是经过编码器映射后的特征空间吗

从统计学的角度看generator data 和real data 同分布,学到的是z生成器fake data的分布,会不会有和完全一样的
杂讯的图和real的图不同之处就是数据分布不同,比如说直方图,或者经过D编码到特征空间的分布位置
??
机器学习:Gan 黄教授

2 对数似然函数D,最大化对数似然,G,最小化D(G)为假的(1-D(G))=p概率=0,的log值即:log(1-D(G))。为什么不可以写成min-arg{-log(D(G))} 预测为真的概率P

3 Gan是非监督没有使用数据标签,但是有discrimator 监督反向传播,跟hmm、贝叶斯非监督学习算法的区别

4 Gan的loss可以加入triplet loss,每次real1 real2,real1 fake,

机器学习:Gan 黄教授

机器学习:Gan 黄教授
Gan的损失函数
机器学习:Gan 黄教授
机器学习:Gan 黄教授
机器学习:Gan 黄教授

条件Gan(网络模型上的变化)

机器学习:Gan 黄教授

wGan的loss(loss变化)

机器学习:Gan 黄教授
SRGan:super resolution Gan 超分辨Gan
机器学习:Gan 黄教授
机器学习:Gan 黄教授
机器学习:Gan 黄教授

pix3pix loss

机器学习:Gan 黄教授

cycleGan

机器学习:Gan 黄教授

相关文章:

  • 2021-08-11
  • 2021-06-08
  • 2021-12-05
  • 2021-12-11
  • 2021-05-14
  • 2021-11-19
  • 2021-05-22
  • 2021-10-08
猜你喜欢
  • 2021-07-05
  • 2021-12-25
  • 2021-04-09
  • 2021-07-15
  • 2022-01-04
  • 2021-04-17
  • 2021-08-08
相关资源
相似解决方案