唯一词元过滤器

唯一词元过滤器 #

唯一(unique)词元过滤器可确保在分词过程中仅保留唯一的词元,它会去除在单个字段或文本块中出现的重复词元。

参数说明 #

唯一词元过滤器可以使用以下参数进行配置:

参数必需/可选数据类型描述
only_on_same_position可选布尔值如果设置为 true,该词元过滤器将充当去重词元过滤器,仅移除位于相同位置的词元。默认值为 false

参考样例 #

以下示例请求创建了一个名为 unique_example 的新索引,并配置了一个带有唯一过滤器的分词器。

PUT /unique_example
{
  "settings": {
    "analysis": {
      "filter": {
        "unique_filter": {
          "type": "unique",
          "only_on_same_position": false
        }
      },
      "analyzer": {
        "unique_analyzer": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "lowercase",
            "unique_filter"
          ]
        }
      }
    }
  }
}

产生的词元 #

使用以下请求来检查使用该分词器生成的词元:

GET /unique_example/_analyze
{
  "analyzer": "unique_analyzer",
  "text": "Easysearch Easysearch is powerful powerful and scalable"
}

返回内容包含产生的词元

{
  "tokens": [
    {
      "token": "easysearch",
      "start_offset": 0,
      "end_offset": 10,
      "type": "<ALPHANUM>",
      "position": 0
    },
    {
      "token": "is",
      "start_offset": 22,
      "end_offset": 24,
      "type": "<ALPHANUM>",
      "position": 1
    },
    {
      "token": "powerful",
      "start_offset": 25,
      "end_offset": 33,
      "type": "<ALPHANUM>",
      "position": 2
    },
    {
      "token": "and",
      "start_offset": 43,
      "end_offset": 46,
      "type": "<ALPHANUM>",
      "position": 3
    },
    {
      "token": "scalable",
      "start_offset": 47,
      "end_offset": 55,
      "type": "<ALPHANUM>",
      "position": 4
    }
  ]
}