IK Max Word 分词器 #
ik_max_word 是 IK 分词器插件提供的细粒度分词模式。
分词方式 #
最大词模式(Max Word)倾向于将文本分成最细粒度的词项,适合对召回率要求高的场景。
示例 #
POST _analyze
{
"tokenizer": "ik_max_word",
"text": "北京市朝阳区建国路1号"
}
分析结果 #
[ "北京市", "北京", "市", "朝阳区", "朝阳", "区", "建国路", "建国", "路", "1", "号" ]
相关指南 #
依赖插件 #
analysis-ik插件
配置 #
PUT my_index
{
"settings": {
"analysis": {
"tokenizer": {
"my_ik_max_word": {
"type": "ik_max_word"
}
}
}
}
}