1.Attention model
Memory Network----------李宏毅视频笔记
2.memory network model
(1)做attention的vector和提取information的vector是不一样的两组(用不同的DNN一起训练得到)
(2)可以做hopping这件事:就是把得到的Extracted Information回过来再与Query做summation后继续再算新的attention scores(原始的做的工作是比summation更复杂的一些转换,注意以前的单纯attention model是直接把Extracted Information丢到DNN里得到output)

Memory Network----------李宏毅视频笔记
Memory Network----------李宏毅视频笔记
注意:每次hopping的参数不一样,每次都要用不同的DNN去产生不同的参数

相关文章:

  • 2021-05-19
  • 2021-05-09
  • 2021-12-18
  • 2021-04-30
  • 2021-05-08
  • 2021-04-30
  • 2021-09-14
  • 2021-03-29
猜你喜欢
  • 2021-07-14
  • 2021-08-28
  • 2022-12-23
  • 2021-12-08
  • 2021-07-17
  • 2021-10-21
  • 2021-08-28
相关资源
相似解决方案