transformer中的position embedding的生成

transformer中的position embedding

 

以上公式就是我们获得position embedding的方法。

pos:表示单词在句子中的位置(1,2,3,...seg_len)

i:表示词向量中的位置(0,1,2,3,......,511)

dmodel:表示的是词向量的维度(512)

根据该公式画图得到:

transformer中的position embedding

画图确实有点简陋。从图中我们看到,蓝色线就是pos=1的时候,该蓝线与512个函数有512个交点,那么这512个交点的函数值就构成了pos=1的position embedding。

相关文章:

  • 2021-04-22
  • 2021-11-06
  • 2022-12-23
  • 2022-01-21
  • 2022-01-14
  • 2022-02-23
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2021-06-04
  • 2021-11-03
  • 2022-12-23
  • 2021-04-08
  • 2021-06-06
  • 2021-08-12
  • 2021-08-18
相关资源
相似解决方案