Henry-ZHAO

与处理图像一样,也是首先要文本向量化,模型只能作用于文本tensor。

 

分词方法:

1文本分割为单词(分解得到的单元称为标记:token)————分词过程

2文本分割为字符(分解得到的单元称为标记:token)————分词过程

3利用 词袋法(bag of words ) 提取单词或字符的n-gram,并将n-gram转换成一个向量。n-gram是多个连续单词或字符的集合。————传统的特征工程手段

 

文本向量化方法:

1.one-hot编码:得到的向量是二进制的,稀疏的,高维度,硬编码。编码方式人为地架起了词之间的鸿沟。

2.词嵌入(词向量):word embedding (word2vector),低维的浮点数向量,密集。比如每个单词用一个长度为8 的浮点向量表示。

 

直接用随机向量拟合token到向量的映射:显然难度很大,因为很机械,无法保持单词之间的距离的意义,更不用说甚至嵌入空间中的特定方向也是有用的。

理想词嵌入空间:尚未发现。

合理做法:对每个新任务学习一个新的嵌入空间。

 

某种程度上讲,Word2vec就是NLP得以发展的基础。

 

分类:

技术点:

相关文章:

  • 2021-11-05
  • 2021-09-07
  • 2020-07-08
  • 2020-04-09
  • 2021-09-19
  • 2021-11-11
  • 2021-11-01
  • 2020-12-22
猜你喜欢
  • 2021-11-01
  • 2021-12-22
  • 2021-12-20
  • 2021-12-22
  • 2021-09-17
  • 2021-09-17
  • 2021-11-11
相关资源
相似解决方案