配置分析器

第三个重要的索引设置是 analysis 部分,用来配置已存在的分析器或创建自定义分析器来定制化你的索引。

在【分析器介绍】中,我们介绍了一些内置的分析器,用于将全文字符串转换为适合搜索的倒排索引。

standard 分析器是用于全文字段的默认分析器,对于大部分西方语系来说是一个不错的选择。它考虑了以下几点:

  • standard 分词器,在词层级上分割输入的文本。
  • standard 标记过滤器,被设计用来整理分词器触发的所有标记(但是目前什么都没做)。
  • lowercase 标记过滤器,将所有标记转换为小写。
  • stop 标记过滤器,删除所有可能会造成搜索歧义的停用词,如 atheandis

默认情况下,停用词过滤器是被禁用的。如需启用它,你可以通过创建一个基于 standard 分析器的自定义分析器,并且设置 stopwords 参数。可以提供一个停用词列表,或者使用一个特定语言的预定停用词列表。

在下面的例子中,我们创建了一个新的分析器,叫做 es_std,并使用预定义的西班牙语停用词:

  1. PUT /spanish_docs
  2. {
  3. "settings": {
  4. "analysis": {
  5. "analyzer": {
  6. "es_std": {
  7. "type": "standard",
  8. "stopwords": "_spanish_"
  9. }
  10. }
  11. }
  12. }
  13. }

es_std 分析器不是全局的,它仅仅存在于我们定义的 spanish_docs 索引中。为了用 analyze API 来测试它,我们需要使用特定的索引名。

  1. GET /spanish_docs/_analyze?analyzer=es_std
  2. El veloz zorro marrón

下面简化的结果中显示停用词 El 被正确的删除了:

  1. {
  2. "tokens" : [
  3. { "token" : "veloz", "position" : 2 },
  4. { "token" : "zorro", "position" : 3 },
  5. { "token" : "marrón", "position" : 4 }
  6. ]
  7. }