源问题是为什么GAN用在NLP领域的paper不多?

以下是goodfellow的回答,链接(似乎需要翻墙):

https://www.reddit.com/r/MachineLearning/comments/40ldq6/generative_adversarial_networks_for_text/

原始的GAN为什么处理离散数据效果很差?

总结:

GAN的设计要求生成器的输出是一个连续空间,否则D到G(z)的梯度无法指导G修正的方向。

由于这种限制,GAN虽然在图像生成应用中获得了巨大的成功,却很少用于离散空间的文本生成

 

但也不是说完全不能做离散数据的生成,seqGAN和textGAN等就是想解决离散数据的生成问题。

相关文章:

  • 2022-12-23
  • 2021-10-27
  • 2021-12-04
  • 2021-11-02
  • 2021-04-12
  • 2022-12-23
  • 2021-11-12
  • 2022-12-23
猜你喜欢
  • 2021-11-09
  • 2021-12-24
  • 2021-12-08
  • 2021-07-06
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案