bytecodebuffer
  1. solr 自带分词器

  2. 配置第三方分词器

分词器原理与作用

todo

 

一、Solr 自带分词器

Solr 自带的分词器,是将所有的中文次分成单独的最小个,如下

 

 

 

二、配置第三方 ik 分词器 

分词器下载地址:https://github.com/magese/ik-analyzer-solr ,服务器器 sorl 版本 7.7.0

查看类型:并没有ik 分词器 ,现在添加一个ik 分词器

 

 将下载好的 jar 包导入  /usr/local/tomcat8/webapps/solr/WEB-INF/lib

cd  /usr/local/tomcat8/webapps/solr/WEB-INF/lib
rz  xx.jar

此处WEB-INF 下没有 classes 文件,创建 classes文件夹,并将 resource 下的配置导入

 

 修改Core 核心下的 managed-schema

 

 

添加如下配置:

<!-- ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>

重启 solr ,并测试,发现分词成功

 

分类:

技术点:

相关文章:

  • 2021-04-06
  • 2021-05-30
  • 2021-04-20
  • 2022-01-13
  • 2021-08-29
  • 2021-06-14
  • 2021-11-18
  • 2021-11-18
猜你喜欢
  • 2021-11-15
  • 2021-12-09
  • 2021-12-09
  • 2021-12-09
  • 2021-11-18
  • 2021-11-18
  • 2021-11-18
相关资源
相似解决方案