借鉴博客:几张图彻底搞定Seq2Seq
Sequence to Sequence模型理解
Sequence to Sequence模型由两部分组成:Encoder和Decoder。在机器翻译过程中,假设要将汉语翻译成英语,首先,我们需要两个词典,一个是汉语的词语与数字(index)的一一对应的词典,另一个是英语单词与数字(index)的一一对应的词典,这样,就可以由词语得到数字,也可以由数字得到词语。
1.Encoder部分:对于输入的一句汉语,将其切割成汉语词语,通过查汉语词典得到词语对应的数字,将每个数字转换为一个固定长度的向量,作为循环神经网络RNN的输入,例如X1,X2,X3X_1,X_2,X_3,先输入X1X_1,与初始状态H0H_0一起,得到H1H_1,然后由X2X_2H1H_1得到H2H_2,再由H2H_2X3X_3一起得到H3H_3,这个H3H_3即最后一个隐状态作为向量C传入Decoder。
2.Decoder部分:里面也是一个循环神经网络RNN,向量C作为这个RNN的初始隐状态,由英语词典将英语词语转换为数字,并转换为向量作为Decoder中RNN的输入,与初始隐状态一起得到各个时间的隐状态,隐状态与一个数相乘经过softmax之后得到图中的OiO_i,是一个概率分布,再经过argmax得到一个整数YiY_i,这个数通过英语词典得到其对应的英语单词。

相关文章:

  • 2021-08-24
  • 2020-03-13
  • 2021-10-24
  • 2021-12-31
  • 2021-10-15
  • 2021-07-27
  • 2021-08-05
  • 2021-05-02
猜你喜欢
  • 2021-11-20
  • 2021-09-10
  • 2021-08-17
  • 2021-08-03
  • 2019-11-17
  • 2021-05-14
  • 2021-12-04
相关资源
相似解决方案