IK Smart 分词器 #
ik_smart 是 IK 分词器插件提供的智能分词模式,是最常用的中文分词方式。
##分词方式
智能分词(Smart)模式倾向于将文本分成"人类可读"的粗粒度词项,适合大多数应用场景。
示例 #
POST _analyze
{
"tokenizer": "ik_smart",
"text": "北京市朝阳区建国路1号"
}
分析结果 #
[ "北京市", "朝阳区", "建国路", "1", "号" ]
相关指南 #
依赖插件 #
analysis-ik插件
配置 #
PUT my_index
{
"settings": {
"analysis": {
"tokenizer": {
"my_ik_smart": {
"type": "ik_smart"
}
}
}
}
}