IK智能分词器(IK Smart)

IK Smart 分词器 #

ik_smart 是 IK 分词器插件提供的智能分词模式,是最常用的中文分词方式。

##分词方式

智能分词(Smart)模式倾向于将文本分成"人类可读"的粗粒度词项,适合大多数应用场景。

示例 #

POST _analyze
{
  "tokenizer": "ik_smart",
  "text": "北京市朝阳区建国路1号"
}

分析结果 #

[ "北京市", "朝阳区", "建国路", "1", "号" ]

相关指南 #

依赖插件 #

  • analysis-ik 插件

配置 #

PUT my_index
{
  "settings": {
    "analysis": {
      "tokenizer": {
        "my_ik_smart": {
          "type": "ik_smart"
        }
      }
    }
  }
}