IK最大词分词器(IK Max Word)

IK Max Word 分词器 #

ik_max_word 是 IK 分词器插件提供的细粒度分词模式。

分词方式 #

最大词模式(Max Word)倾向于将文本分成最细粒度的词项,适合对召回率要求高的场景。

示例 #

POST _analyze
{
  "tokenizer": "ik_max_word",
  "text": "北京市朝阳区建国路1号"
}

分析结果 #

[ "北京市", "北京", "市", "朝阳区", "朝阳", "区", "建国路", "建国", "路", "1", "号" ]

相关指南 #

依赖插件 #

  • analysis-ik 插件

配置 #

PUT my_index
{
  "settings": {
    "analysis": {
      "tokenizer": {
        "my_ik_max_word": {
          "type": "ik_max_word"
        }
      }
    }
  }
}