之前我们创建索引,查询数据,都是使用的默认的分词器,分词效果不太理想,会把text的字段分成一个一个汉字,然后搜索的时候也会把搜索的句子进行分词,所以这里就需要更加智能的分词器IK分词器了。

一、ik分词器的下载

下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases ,这里你需要根据你的Es的版本来下载对应版本的IK,这里我使用的是5.6.8的ES,所以就下载elasticsearch-analysis-ik-5.6.8.zip的文件

ElasticSearch-04IK分词器的安装与使用

二、安装配置

将下载下来的文件解压到 es的安装目录/plugin/ik下面即可,完成之后效果如下

ElasticSearch-04IK分词器的安装与使用

三、运行加载

ElasticSearch-04IK分词器的安装与使用

四、测试使用

1.未使用ik分词器的时候测试分词效果:
ElasticSearch-04IK分词器的安装与使用
2.使用IK分词器之后结果如下:

ElasticSearch-04IK分词器的安装与使用
关于ik分词器的分词类型(可以根据需求进行选择):

ik_max_word:会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;

ik_smart:会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。

相关文章:

  • 2021-07-15
  • 2022-01-15
  • 2022-02-22
  • 2021-12-28
  • 2021-08-07
  • 2021-10-04
  • 2021-09-02
猜你喜欢
  • 2021-06-27
  • 2021-05-11
  • 2021-06-04
  • 2022-01-27
  • 2022-01-10
  • 2021-09-25
  • 2021-11-18
相关资源
相似解决方案