HanLP Standard 分词器 #
hanlp_standard 分词器使用 HanLP 标准分词模式对中文文本进行分词,适合大多数中文搜索场景。
需要安装 analysis-hanlp 插件。
示例 #
PUT my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "hanlp_standard"
}
}
}
}
}