论文What Does BERT Look At? An Analysis of BERT’s Attention  指出bert的多头注意力,不同的头可以学到不同的信息,有的学到词法、有的学到语法、语义。

论文地址:https://arxiv.org/pdf/1908.11365.pdf

Bert whole mask为什么效果比mask字效果更好?

 

举例如:现在好饿呀,我们去吃饭,好不好?  MASK字的方式:  现在好饿呀,我们去吃[MASK],好不好? 

MASK词的方式: 现在好饿呀,我们去[MASK] [MASK],好不好?  可以发现MASK字的话模型很容易根据“吃”推断出MASK位置是“饭”的概率很高。

而MASK词的方式明显将任务的难度扩大,需要学习更多的上下文比如上文中“饿”的信息,来推断出两个MASK位置可能是“吃饭”的可能性比较大。

所以说MASK词的方式使得模型预训练时被迫更加关注上下文信息,学到更多的语义,从而下游任务能够表现更好。

相关文章:

  • 2021-05-03
  • 2022-12-23
  • 2022-12-23
  • 2021-07-24
  • 2021-06-03
  • 2021-08-11
  • 2021-07-01
猜你喜欢
  • 2022-12-23
  • 2021-12-20
  • 2022-12-23
  • 2022-12-23
  • 2021-11-20
  • 2022-12-23
相关资源
相似解决方案