我觉得,注意力机制的核心就是:权重。分配不同权重来体现不同输入对当前计算时的重要程度。

注意力池化:

动手学深度学习番外篇:注意力机制概述
偏好:动手学深度学习番外篇:注意力机制概述

带注意力池化的LSTM,进行指定类别的情感分类:

动手学深度学习番外篇:注意力机制概述
h是通过LSTM计算出的隐藏层,我们现在要判断在味觉方面的好坏的评价,为每个h向量,拼接一个关于味觉的参数化的查询项,然后通过softmax计算概率,得到的就是每个词对味觉评判时的权重,再乘以没有加关于味觉的参数化的查询项时的h得到进行结果评判的一个向量。

层次注意力池化:

动手学深度学习番外篇:注意力机制概述
很容易理解的例子:我想理解段落,先理解重要的句子,想理解重要的句子,就要先理解句子中重要的词。

(这也是文本分类的一种思想)

动手学深度学习番外篇:注意力机制概述
动手学深度学习番外篇:注意力机制概述

先对词编码,得到词的注意力矩阵,乘之后得到输出向量,作为句子编码的输入,再得到句子的注意力矩阵,乘后得到向量,使用softmax看看属于哪一个分类。

循环注意力池化:

动手学深度学习番外篇:注意力机制概述

问答系统

相关文章:

  • 2021-04-28
  • 2021-08-16
  • 2021-04-11
  • 2021-12-16
猜你喜欢
  • 2021-06-11
  • 2021-04-25
  • 2022-01-21
  • 2021-06-18
  • 2021-12-01
  • 2022-01-16
  • 2022-01-09
相关资源
相似解决方案