tenlee2012 / elasticsearch-analysis-hao

一个非常hao用的elasticsearch(es)中文分词器插件
Apache License 2.0
230 stars 29 forks source link
analysis-hao elasticsearch hanlp hao-elasticsearch ik-analysis lucene search solr

HAO ES 分词器

简介

一个elasticsearch 中文分词 插件。

QQ交流群:743457803

如何开发一个ES分词插件请参考 这里

主要参考了 IKHanLP

特性

提供 Analyzer: hao_search_mode, hao_index_mode Tokenizer: hao_search_mode, hao_index_mode

Versions

Git tag ES version
master ES最新稳定版
v7.17.1 7.17.1
vX.Y.Z X.Y.Z

使用

安装

方式1. bin/elasticsearch-plugin install file:///Users/xiaoming/Download/analysis-hao.zip

方式2. 解压后,放在es plugins目录即可,保证是如下目录结构 {ES_HOME}/plugins/analysis-hao/(各种jar等文件),同时目录不能有zip文件

最后重启ES

ES 版本升级

如果没有你需要的对应ES版本,要修改一下几个地方:

  1. 修改pom.xml->elasticsearch.version的值为对应版本。
  2. 编译,按照响应报错修改代码,比如可能有HaoTokenizerFactory.java的构造方法。 最后执行 mvn clean package -Dmaven.test.skip=true,就可以得到插件的zip安装包。

分词器

下面是自定义分词器可用的配置项

参数


配置项参数 功能 默认值
enableIndexMode 是否使用index模式,index模式为细颗粒度。 hao_search_modefalsehao_index_modetrue,细颗粒度适合Term Query,粗颗粒度适合Phrase查询
enableFallBack 如果分词报错,是否启动最细粒度分词,即按字分。建议search_mode使用,不至于影响用户搜索。index_mode不启动,以便及时报错告警通知。 false不启动降级
enableFailDingMsg 是否启动失败钉钉通知,通知地址为HttpAnalyzer.cfg.xmldingWebHookUrl字段。 false
enableSingleWord 是否使用细粒度返回的单字。比如体力值,分词结果只存体力值,体力,而不存 false
autoWordLength 根据空格标点符号字母数字等分隔后的汉字文本长度小于autoWordLength会自动识别为一个词语。 默认-1不开启,>=2视为开启 -1

内置分词器介绍

会根据词库的词条和权重,递归分词,直到该词不可分。如果设置了enableSingleWord=true,会一直分到单字为止。

例如这段文本南京市长江大桥

  1. 南京市长江大桥 ==> 南京市, 长江大桥
  2. 南京市==>南京,, 长江大桥==>长江,大桥
  3. 如果enableSingleWord=false,递归停止,得到分词为南京市,南京,,长江大桥,长江,大桥
  4. 如果enableSingleWord=true,继续递归,直到单字位置,得到分词为南京市,南京,,,,长江大桥,长江,,,大桥,,
    • hao_search_mode

该模式下,相当于hao_index_mode模式只递归一次。 分词结果为南京市, 长江大桥。因为该模式下enableIndexMode=false,如果改成true,则和hao_index_mode一样的效果。

HaoAnalyzer.cfg.xml 配置


参数 功能 备注
baseDictionary 基础词库文件名 放在插件config目录或者es的config目录,不用更改
customerDictionaryFile 用户自定义远程词库文件,多个文件用英文分号;分隔 会存储在插件config目录或者es的config目录
remoteFreqDict 远程用户自定义词库文件 方便热更新,热更新通过下面两个参数定时更新。
syncDicTime 远程词库下次同步时间 hh:mm:ss 不填使用syncDicPeriodTime作为下次同步时间
syncDicPeriodTime 远程词库同步时间间隔,秒,最小值30 比如 syncDicTime=20:00:00,syncDicPeriodTime=86400,则是每天20点同步
dingWebHookUrl 钉钉机器人url 用于分词异常,同步词库异常/成功通知
dingMsgContent 机器人通知文案 注意配置钉钉机器人的时候关键词要和这个文案匹配,不然会消息发送失败

词库说明

优先读取 {ES_HOME}/config/analysis-hao/目录,没有读取 {ES_HOME}/plugins/analysis-hao/config目录下的文件

示例索引demo

建索引:

PUT test/
{
  "settings": {
    "index": {
      "analysis": {
        "analyzer": {
          "search_analyzer": {
            "filter": [
              "lowercase"
            ],
            "char_filter": [
              "html_strip"
            ],
            "type": "custom",
            "tokenizer": "my_search_token"
          },
          "index_analyzer": {
            "filter": [
              "lowercase"
            ],
            "char_filter": [
              "html_strip"
            ],
            "type": "custom",
            "tokenizer": "my_index_token"
          }
        },
        "tokenizer": {
          "my_index_token": {
            "enableFailDingMsg": "true",
            "type": "hao_index_mode",
            "enableSingleWord": "true",
            "enableFallBack": "true",
            "autoWordLength": 3
          },
          "my_search_token": {
            "enableFailDingMsg": "true",
            "type": "hao_search_mode",
            "enableSingleWord": "true",
            "enableFallBack": "true",
            "autoWordLength": 3
          }
        }
      },
      "number_of_replicas": "0"
    }
  },
  "mappings": {
    "properties": {
      "title": {
        "type": "text",
        "index_options": "offsets",
        "analyzer": "index_analyzer",
        "search_analyzer": "search_analyzer"
      }
    }
  }
}

测试分词

test/_analyze
{
  "analyzer": "index_analyzer",
  "text": "徐庆年 奋发图强打篮球有利于提高人民生活,有的放矢,中华人民共和国家庭宣传委员会宣。🐶"
}

test/_analyze
{
  "analyzer": "search_analyzer",
  "text": "徐庆年 奋发图强打篮球有利于提高人民生活,有的放矢,中华人民共和国家庭宣传委员会宣。🐶"
}

徐庆年并不在词库中,但是通过autoWordLength识别为一个词。