1、textCNN

   前面介绍过,这里不做赘述

2、TextRNN

   前面介绍过,也不做赘述

3、Attention

   就是在输出之后加了一层attention,感觉大家都已经很了解了,但还是简单说一下,attention就是输出层的s(t-1)与前面所有的隐含层做乘积再softmax,得到一个权重分布的向量,再与所有隐含层相乘叠加得到c(t),然后再根据c(t)、s(t-1)得到一个结果,再全连接。7、文本分类算法

4、Transformer

5、bert

 

 

先写这么多了,明天再细写吧

相关文章:

  • 2021-08-18
  • 2021-10-18
  • 2021-10-21
  • 2022-12-23
  • 2021-09-26
  • 2022-02-07
  • 2022-12-23
  • 2021-12-15
猜你喜欢
  • 2021-08-14
  • 2021-06-30
  • 2021-08-09
  • 2022-12-23
  • 2021-12-30
  • 2021-12-04
  • 2021-12-03
相关资源
相似解决方案