这是ACL2015的一片关于自然语言生成的文章,paper链接https://arxiv.org/abs/1506.01057,一作是李纪为大神(据说是stanford CS方向第一个3年毕业的PHD),现在是香侬科技的创始人,作者homepage http://stanford.edu/~jiweil/index.html,code在github上面已经released出来了https://github.com/jiweil/Hierarchical-Neural-Autoencoder
个人瞎扯:久仰李纪为大神,一直都想拜读一下他的文章,因此就选了这篇google citation最高的文章。
文章要做的事情:
输入:一段自然语言      输出:一段自然语言

文章在Wikipedia和Hotel Reviews这两个datasets上面生成的一些例子如下所示。
A Hierarchical Neural Autoencoder for Paragraphs and Documents
三个方法(接下来会介绍)在两个数据集上面定量分析的实验结果如下所示。
A Hierarchical Neural Autoencoder for Paragraphs and Documents

method
standard sequence to sequence model
A Hierarchical Neural Autoencoder for Paragraphs and Documents
hierarchical sequence to sequence model
A Hierarchical Neural Autoencoder for Paragraphs and Documents
hierarchical sequence to sequence model with attention
A Hierarchical Neural Autoencoder for Paragraphs and Documents

相关文章:

  • 2021-09-07
  • 2021-11-16
  • 2022-01-09
  • 2021-07-26
  • 2022-12-23
  • 2021-05-17
  • 2021-06-01
  • 2022-12-23
猜你喜欢
  • 2021-09-22
  • 2021-10-15
  • 2021-04-13
  • 2021-12-22
  • 2021-10-27
  • 2021-05-22
相关资源
相似解决方案