NLP之word2vec用法

导入词向量模型,并查找词的相关性

import gensim
# 导入模型  
#谷歌3.4G
#model_path='GoogleNews-vectors-negative300.bin'
#斯坦福0.94G
model_path='glove.twitter.27B.200d.bin'
model = gensim.models.KeyedVectors.load_word2vec_format(model_path,binary=True) 

# 返回一个词 的向量:
print(model['twitter'])

# 返回和一个词语最相关的多个词语以及对应的相关度
items = model.most_similar('drug')
for item in items:
    # 词的内容,词的相关度
    print(item[0], item[1])

结果:
NLP之word2vec用法

NLP之word2vec用法
还是很不错的

谷歌的词向量我加载了半天,内存不好还是别跑QAQ
斯坦福词向量(英语):
链接:https://pan.baidu.com/s/1Ig8qF3kcxfnBHiRIoYKhWw
提取码:9t9f
维基百科+小说+xxx一堆(中文):
大约1.5G :
链接:https://pan.baidu.com/s/1NZ81ldL2g_Ch-sK5EtDzQg
提取码:k2ty
版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.net/x_bessie/article/details/84991122

相关文章: