elasticsearch官方默认的分词插件,对中文分词效果不理想。

  比如,我现在,拿个具体实例来展现下,验证为什么,es官网提供的分词插件对中文分词而言,效果差

ElasticSearch官方默认的分词插件

总结

     如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题——中文词语被分成了一个一个的汉字,当用Kibana作图的时候,按照term来分组,结果一个汉字被分成了一组。

     这是因为使用了Elasticsearch中默认的标准分词器,这个分词器在处理中文的时候会把中文单词切分成一个一个的汉字


相关文章:

  • 2021-12-01
  • 2022-03-04
  • 2022-12-23
  • 2021-05-05
  • 2021-12-10
  • 2021-06-25
  • 2022-02-24
  • 2022-12-23
猜你喜欢
  • 2021-09-21
  • 2022-12-23
  • 2022-12-23
  • 2022-01-17
  • 2021-11-18
  • 2021-10-09
  • 2021-08-28
相关资源
相似解决方案