Elasticsearch 7.x 深入【4】DSL查詢【二】全文級(jí)別的查詢

1. 借鑒

極客時(shí)間 阮一鳴老師的Elasticsearch核心技術(shù)與實(shí)戰(zhàn)
ElasticSearch7+Spark構(gòu)建高相關(guān)性搜索服務(wù)&千人千面推薦系統(tǒng)
官方文檔 full-text-queries
Elasticsearch Query DSL之全文檢索(Full text queries)上篇
Elasticsearch Query DSL之全文檢索(Full text queries)下篇
Elasticsearch自定義分詞,從一個(gè)問題說開去
Elasticsearch之match_phrase小坑記錄
官方文檔 slop
Elasticsearch - 短語匹配(match_phrase)以及slop參數(shù)
網(wǎng)名生成器

2. 開始

基于全文本的查詢

  • 基于全文本的查詢有以下幾種:match,match phrase,match bool prefix,match phrase prefix,multi match,query string,simple query string。
  • 會(huì)對(duì)輸入進(jìn)行分詞這一點(diǎn)要注意

我們創(chuàng)建一些數(shù)據(jù)供以后使用

# 創(chuàng)建索引
PUT /actors
{
  "mappings": {
    "properties": {
      "name": {
        "type": "text",
        "analyzer": "ik_max_word", 
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      }
    }
  }
}
# 添加數(shù)據(jù)[名字隨機(jī)生成的,如有雷同,純屬巧合]
PUT /_bulk
{"index": {"_index": "actors", "_id": 1}}
{"name": "陳宛曼"}
{"index": {"_index": "actors", "_id": 2}}
{"name": "陳浩南"}
{"index": {"_index": "actors", "_id": 3}}
{"name": "司徒浩南"}
{"index": {"_index": "actors", "_id": 4}}
{"name": "易白竹"}
{"index": {"_index": "actors", "_id": 5}}
{"name": "單于冰嵐"}
{"index": {"_index": "actors", "_id": 6}}
{"name": "賓三春"}
{"index": {"_index": "actors", "_id": 7}}
{"name": "慕容雅云"}
{"index": {"_index": "actors", "_id": 8}}
{"name": "陳子晉"}
{"index": {"_index": "actors", "_id": 9}}
{"name": "黨綺梅"}
{"index": {"_index": "actors", "_id": 10}}
{"name": "慕容鴻暉"}

analyze 過程

在說基于全文本查詢之前,我們先來說搜索之前的分詞過程,這個(gè)過程是是十分重要的

  • 我們以以下一段話來分析一下

Water dropping day by day wears the hardest rock away
[水滴石穿]

# 我們新建一個(gè)搜索
PUT /mine/_doc/1
{
  "name": "Water dropping day by day wears & the hardest rock away"
}

# 簡(jiǎn)單查詢一下
GET /mine/_search
{
  "query": {
    "match": {
      "name": "drop"
    }
  }
}
  • 查詢結(jié)果
{
  "took" : 645,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 0,
      "relation" : "eq"
    },
    "max_score" : null,
    "hits" : [ ]
  }
}
  • 看到這個(gè)結(jié)果是不是覺的有些奇怪,drop至少在文檔中有出現(xiàn),在我們的認(rèn)知中drop跟dropping其實(shí)是一個(gè)詞的不同時(shí)態(tài),為什么搜不出來呢?我們不知道搜索引擎給我們分出了什么詞,那我們使用analyzer的api查看分詞
# 使用analyze api查看分詞結(jié)果
GET /mine/_analyze
{
  "field": "name",
  "text": "Water dropping day by day wears & the hardest rock away"
}
  • 我們看下analyze api作用在name字段上,輸入text(Water ....),分出來的詞如下:
{
  "tokens" : [
    {
      "token" : "water",
      "start_offset" : 0,
      "end_offset" : 5,
      "type" : "<ALPHANUM>",
      "position" : 0
    },
    {
      "token" : "dropping",
      "start_offset" : 6,
      "end_offset" : 14,
      "type" : "<ALPHANUM>",
      "position" : 1
    },
    {
      "token" : "day",
      "start_offset" : 15,
      "end_offset" : 18,
      "type" : "<ALPHANUM>",
      "position" : 2
    },
    {
      "token" : "by",
      "start_offset" : 19,
      "end_offset" : 21,
      "type" : "<ALPHANUM>",
      "position" : 3
    },
    {
      "token" : "day",
      "start_offset" : 22,
      "end_offset" : 25,
      "type" : "<ALPHANUM>",
      "position" : 4
    },
    {
      "token" : "wears",
      "start_offset" : 26,
      "end_offset" : 31,
      "type" : "<ALPHANUM>",
      "position" : 5
    },
    {
      "token" : "the",
      "start_offset" : 32,
      "end_offset" : 35,
      "type" : "<ALPHANUM>",
      "position" : 6
    },
    {
      "token" : "hardest",
      "start_offset" : 36,
      "end_offset" : 43,
      "type" : "<ALPHANUM>",
      "position" : 7
    },
    {
      "token" : "rock",
      "start_offset" : 44,
      "end_offset" : 48,
      "type" : "<ALPHANUM>",
      "position" : 8
    },
    {
      "token" : "away",
      "start_offset" : 49,
      "end_offset" : 53,
      "type" : "<ALPHANUM>",
      "position" : 9
    }
  ]
}
  • 我們來看下,輸入drop的關(guān)鍵字的時(shí)候的分詞結(jié)果
GET /mine/_analyze
{
  "field": "name",
  "text": "drop"
}
  • 分詞結(jié)果如下,輸入drop后,分詞器的分詞結(jié)果是drop
{
  "tokens" : [
    {
      "token" : "drop",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "<ALPHANUM>",
      "position" : 0
    }
  ]
}
  • 可以看到文檔分詞的結(jié)果是dropping,而輸入分詞的結(jié)果是drop,這讓我們看上去是個(gè)相似的詞,但是對(duì)于搜索引擎來說,則需要完全匹配,所以用drop來搜索時(shí),搜索不出來結(jié)果。

那接下來我們看下analyze的過程

  • 字符過濾->字符處理->分詞過濾(分詞轉(zhuǎn)換)
analyze過程
  • 那我們?nèi)绾问莇rop能搜索出來文檔呢?需要指定分詞器
# 先刪除之前的索引
DELETE /mine

# 創(chuàng)建索引
PUT /mine 
{
  "mappings": {
    "properties": {
      "name": {
        "type": "text",
        "analyzer": "english"
      }
    }
  }
}

# 添加文檔
PUT /mine/_doc/1
{
  "name": "Water dropping day by day wears & the hardest rock away"
}
  • 我們使用analyze api查看一下分詞結(jié)果
GET /mine/_analyze
{
  "field": "name",
  "text": "Water dropping day by day wears & the hardest rock away"
}
  • 分詞結(jié)果
{
  "tokens" : [
    {
      "token" : "water",
      "start_offset" : 0,
      "end_offset" : 5,
      "type" : "<ALPHANUM>",
      "position" : 0
    },
    {
      "token" : "drop",
      "start_offset" : 6,
      "end_offset" : 14,
      "type" : "<ALPHANUM>",
      "position" : 1
    },
    {
      "token" : "dai",
      "start_offset" : 15,
      "end_offset" : 18,
      "type" : "<ALPHANUM>",
      "position" : 2
    },
    {
      "token" : "dai",
      "start_offset" : 22,
      "end_offset" : 25,
      "type" : "<ALPHANUM>",
      "position" : 4
    },
    {
      "token" : "wear",
      "start_offset" : 26,
      "end_offset" : 31,
      "type" : "<ALPHANUM>",
      "position" : 5
    },
    {
      "token" : "hardest",
      "start_offset" : 38,
      "end_offset" : 45,
      "type" : "<ALPHANUM>",
      "position" : 7
    },
    {
      "token" : "rock",
      "start_offset" : 46,
      "end_offset" : 50,
      "type" : "<ALPHANUM>",
      "position" : 8
    },
    {
      "token" : "awai",
      "start_offset" : 51,
      "end_offset" : 55,
      "type" : "<ALPHANUM>",
      "position" : 9
    }
  ]
}

我們看到分詞結(jié)果有些不同,我們來歸納一下這兩個(gè)分詞器的表現(xiàn)不同的地方

    1. dropping 變?yōu)?drop
    1. by 這個(gè)詞消失了【english分詞器在字符過濾階段將其過濾掉了】
    1. day 這個(gè)詞變?yōu)榱薲ai【english分詞器在分詞過濾階段,進(jìn)行詞干轉(zhuǎn)換,比如說復(fù)數(shù)轉(zhuǎn)為單數(shù)(days -> day -> dai)】

現(xiàn)在我們?cè)賵?zhí)行一下query語句就能查詢到了

GET /mine/_search
{
  "query": {
    "match": {
      "name": "drop"
    }
  }
}
  • 查詢結(jié)果
{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 1,
      "relation" : "eq"
    },
    "max_score" : 0.2876821,
    "hits" : [
      {
        "_index" : "mine",
        "_type" : "_doc",
        "_id" : "1",
        "_score" : 0.2876821,
        "_source" : {
          "name" : "Water dropping day by day wears & the hardest rock away"
        }
      }
    ]
  }
}

接下來,我們看看全文本查詢

1.match

執(zhí)行以下查詢,查看執(zhí)行結(jié)果

GET /actors/_search
{
  "query": {
    "match": {
      "name": "慕容浩南"
    }
  }
}
  • 結(jié)果如下:
{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 4,
      "relation" : "eq"
    },
    "max_score" : 3.002836,
    "hits" : [
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "2",
        "_score" : 3.002836,
        "_source" : {
          "name" : "陳浩南"
        }
      },
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "3",
        "_score" : 3.002836,
        "_source" : {
          "name" : "司徒浩南"
        }
      },
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "7",
        "_score" : 1.501418,
        "_source" : {
          "name" : "慕容雅云"
        }
      },
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "10",
        "_score" : 1.501418,
        "_source" : {
          "name" : "慕容鴻暉"
        }
      }
    ]
  }
}
  • 看結(jié)果就能印證我們之前說的,會(huì)對(duì)輸入進(jìn)行分詞,分為三個(gè)詞(慕容,浩,南【可以使用_analyze api進(jìn)行查看】),可以看到結(jié)果是包含慕容或者浩或者南,如果我就要搜慕容浩南呢?
GET /actors/_search
{
  "query": {
    "match": {
      "name": {
        "query": "慕容浩南",
        "operator": "and"
      }
    }
  }
}
  • 以下為搜索結(jié)果,遺憾的是并沒有這么個(gè)人在我們的索引中
{
  "took" : 2,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 0,
      "relation" : "eq"
    },
    "max_score" : null,
    "hits" : [ ]
  }
}

那都可以配置哪些參數(shù)呢?【不全,沒有印證的沒有寫下來,詳見官網(wǎng)】

  • operator:OR 和 AND。表示對(duì)查詢字符串分詞后,返回的關(guān)鍵字列表,OR只需一個(gè)滿足及認(rèn)為匹配,而AND則需要全部都匹配,默認(rèn)值為:OR
  • minimum_should_match:最少需要匹配個(gè)數(shù)。在操作類型為OR時(shí)生效,指明分詞后的關(guān)鍵字,至少minimum_should_match 個(gè)匹配,則命中。
    以下舉個(gè)例子:我們要查詢關(guān)鍵字”慕容浩南“,其中分詞為”慕容“,”浩“,”南“,我們?cè)O(shè)置minimum_should_match為2,只要name屬性包含2個(gè)以上關(guān)鍵字[包含2個(gè)]即為匹配
GET /actors/_search
{
  "query": {
    "match": {
      "name": {
        "query": "慕容浩南",
        "operator": "or",
        "minimum_should_match": "2"
      }
    }
  }
}

結(jié)果如下:

{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 2,
      "relation" : "eq"
    },
    "max_score" : 3.002836,
    "hits" : [
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "2",
        "_score" : 3.002836,
        "_source" : {
          "name" : "陳浩南"
        }
      },
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "3",
        "_score" : 3.002836,
        "_source" : {
          "name" : "司徒浩南"
        }
      }
    ]
  }
}
類型 例子 釋義
整型 2 如果分詞的匹配個(gè)數(shù)小于2個(gè),則無法匹配到任何條目。
負(fù)整數(shù) -1 負(fù)數(shù)表示最多不允許不匹配的個(gè)數(shù)【也就是需要匹配的個(gè)數(shù)為(總數(shù)-1)】
百分比 75% 百分比,表示需要匹配的詞占總數(shù)的百分比。
組合類型 2<90% 如果查詢字符串分詞的個(gè)數(shù)小于等于2(前面的整數(shù)),則只要全部匹配則返回,如果分詞的個(gè)數(shù)大于2個(gè),則只要90%的匹配即可。
多組合類型 2<-25% 9<-3 支持多條件表達(dá)式,中間用空格分開。該表達(dá)式的意義如下:1、如果分詞的個(gè)數(shù)小于等于2,則必須全部匹配;如果大于2小于9,則除了25%(注意負(fù)號(hào))之外都需要滿足。2、如果大于9個(gè),則只允許其中3個(gè)不滿足。
  • analyzer: 設(shè)置分詞器
  • lenient:是否忽略由于數(shù)據(jù)類型不匹配引起的異常,默認(rèn)為false。例如嘗試用文本查詢字符串查詢數(shù)值字段,默認(rèn)會(huì)拋出錯(cuò)誤。
  • fuzziness:模糊匹配
  • zero_terms_query:默認(rèn)情況下,如果分詞器會(huì)過濾查詢字句中的停用詞,可能會(huì)造成查詢字符串分詞后變成空字符串,此時(shí)默認(rèn)的行為是無法匹配到任何文檔,如果想改變?cè)撃J(rèn)情況,可以設(shè)置zero_terms_query=all,默認(rèn)值為none。
  • auto_generate_synonyms_phrase_query:如果為true,則為同義詞自動(dòng)創(chuàng)建短語查詢。默認(rèn)值為true

2. match phrase

match_phrase檢索時(shí)候,文檔必須同時(shí)滿足以下兩個(gè)條件,才能被檢索到:

  • 1)分詞后所有詞項(xiàng)都出現(xiàn)在該字段中;
  • 2)字段中的詞項(xiàng)順序要一致。

對(duì)于匹配了短語"quick brown fox"的文檔,下面的條件必須為true:

  • quick、brown和fox必須全部出現(xiàn)在某個(gè)字段中。
  • brown的位置必須比quick的位置大1。
  • fox的位置必須比quick的位置大2。

如果以上的任何一個(gè)條件沒有被滿足,那么文檔就不能被匹配。

舉個(gè)例子

# 我們搜索”慕容雅云“,注意,”慕容雅云“被分詞器分為”慕容“,”雅“,”云“
GET /actors/_search
{
  "query": {
    "match_phrase": {
      "name": {
        "query": "慕容雅云"
      }
    }
  }
}
  • 看下結(jié)果
{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 1,
      "relation" : "eq"
    },
    "max_score" : 5.539568,
    "hits" : [
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "7",
        "_score" : 5.539568,
        "_source" : {
          "name" : "慕容雅云"
        }
      }
    ]
  }
}
  • 結(jié)果只有一個(gè),說明分詞后,需要保證慕容,雅,云都在的文檔可以被篩選出來

再來看下一個(gè)

GET /actors/_search
{
  "query": {
    "match_phrase": {
      "name": {
        "query": "雅云慕容"
      }
    }
  }
}
  • 結(jié)果如下,啥也沒有,說明,除了文檔中要同時(shí)包含慕容,雅,云外,還要保證他們的順序
{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 0,
      "relation" : "eq"
    },
    "max_score" : null,
    "hits" : [ ]
  }
}

但是假如我知道這個(gè)人的名字包含慕容,雅,云,不知道是姓慕容還是姓雅云這該咋整

  • 我們可以使用slop參數(shù)來進(jìn)行調(diào)整。slop參數(shù)告訴match_phrase查詢?cè)~條能夠相隔多遠(yuǎn)時(shí)仍然將文檔視為匹配。相隔多遠(yuǎn)的意思是,你需要移動(dòng)一個(gè)詞條多少次來讓查詢和文檔匹配?
  • 我們先來舉個(gè)例子再來解釋
GET /actors/_search
{
  "query": {
    "match_phrase": {
      "name": {
        "query": "雅云慕容",
        "slop": 3
      }
    }
  }
}
  • 結(jié)果如下:
{
  "took" : 0,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 1,
      "relation" : "eq"
    },
    "max_score" : 2.1158507,
    "hits" : [
      {
        "_index" : "actors",
        "_type" : "_doc",
        "_id" : "7",
        "_score" : 2.1158507,
        "_source" : {
          "name" : "慕容雅云"
        }
      }
    ]
  }
}
  • 可以看到有數(shù)據(jù)了,可是為啥呢?大家可以參考我在借鑒部分的slop的官方文檔,里面用了表格來說明了,挺清楚,下面我們也來用表格來說明我們這個(gè)。


    slop
  • 簡(jiǎn)要說明一下:我們查詢的是”雅云慕容 “,在文檔中的分詞的順序是”慕容“,”雅“,”云“,match_phrase查詢時(shí)會(huì)先對(duì)查詢條件進(jìn)行分詞,詞項(xiàng)和順序分為”雅“,”云“,”慕容“。第一步,調(diào)整”慕容“的順序,使它和”雅“并列;第二步,調(diào)整”雅“的順序,使它和”云“并列;第三步,調(diào)整”云“。調(diào)整結(jié)束,索引slop為3。

3. match bool prefix

match_bool_prefix查詢分析其輸入,并根據(jù)這些關(guān)鍵字構(gòu)造bool查詢。除了最后一個(gè)詞外,每個(gè)詞都在一個(gè)term查詢中使用。最后一個(gè)詞用于前綴查詢。

  • 舉個(gè)栗子
GET /actors/_search
{
  "query": {
    "match_bool_prefix": {
      "name": "陳浩南"
    }
  }
}
  • 我們上邊的這個(gè)栗子可以重寫為以下語句
GET /actors/_search
{
  "query": {
    "bool" : {
      "should": [
        { "term": { "name": "陳" }},
        { "term": { "name": "浩" }},
        { "prefix": { "name": "南"}}
      ]
    }
  }
}

match_bool_prefix查詢和match_phrase_prefix之間的一個(gè)重要區(qū)別是:
match_phrase_prefix查詢匹配短語,而match_bool_prefix查詢可以在任何位置匹配短語。上面的示例match_bool_prefix查詢可以匹配一個(gè)包含"陳浩南"的字段,但是它也可以匹配"浩南陳"。它還可以匹配一個(gè)出現(xiàn)在任何位置,可包含"陳"、浩"和以"南"開頭的字段。當(dāng)然可以使用minimum_should_match來指定匹配的精度。

4.match phrase prefix

返回包含所提供文本的單詞的文檔,其順序與所提供的順序相同。提供的文本的最后一項(xiàng)作為前綴,匹配以該項(xiàng)開頭的任何單詞。

  • 我覺得官方的解釋比較容易懂,所以直接拿過來了
# 下面的搜索在消息字段中返回包含以quick brown f開頭的短語的文檔。
GET /_search
{
    "query": {
        "match_phrase_prefix" : {
            "message" : {
                "query" : "quick brown f"
            }
        }
    }
}

# 這個(gè)搜索會(huì)匹配message為quick brown fox 或者 two quick brown ferrets的文本,但是不會(huì)匹配 fox is quick and brown.

5.multi match

multi_match查詢建立在匹配查詢的基礎(chǔ)上,支持多字段查詢

GET /tmdb_movies/_search
{
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title", "overview"]
    }
  }
}
  • 使用fields指定在多個(gè)字段上搜索
  • 默認(rèn)是取最大值的得分【即query中分詞后在title字段的打分和query分詞后在overview中的打分取最大值】
放大系數(shù)

如果說我們覺得title字段的分?jǐn)?shù)要比overview字段的分?jǐn)?shù)重要,我們可以指定boot

GET /tmdb_movies/_search
{
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title^3", "overview"]
    }
  }
}

如此一來,在title上的打分就放大了3倍

tie_breaker
GET /tmdb_movies/_search
{
  "explain": true, 
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title^3", "overview"],
      "tie_breaker": 0.3
    }
  }
}

tie_breaker是做什么的呢?我們上邊說到multi_match默認(rèn)是取最大值的評(píng)分,所以說title放大3倍后評(píng)分比overview要高【我們?nèi)绱思俣ā?br> 那么我們來做一下對(duì)比

我們假定title的打分是0.8,則title^3的打分為2.4
我們假定overview的打分為0.4
我們指定tie_breaker為0.3

搜索屬性 沒有tie_breaker得分 添加tie_breaker得分
["title^3", "overview"] 2.4 2.4 + 0.4 * 0.3

我們可以看到,tie_breaker的作用是,文檔的最終得分為文檔的匹配屬性的最大得分+其他屬性的得分*tie_breaker,即綜合考慮所有屬性的得分,而不是簡(jiǎn)單的取最大值

type

multi_match中有很多type

  • best_fileds:默認(rèn)的打分方式,取最高的分?jǐn)?shù)作為文檔的分?jǐn)?shù),與dis_max相同
    -- best_fileds模式
GET /tmdb_movies/_search
{
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title", "overview"]
    }
  }
}

-- dis_max模式[寫法與multi_match不同,但是都是取最高分]

GET /tmdb_movies/_search
{
  "query": {
    "dis_max": {
      "queries": [
        {"match": {"title": "basketball with cartoom aliens"}},
        {"match": {"overview": "basketball with cartoom aliens"}}
        ]
    }
  }
}
  • most_fileds:所有文檔字段得分相加
GET /tmdb_movies/_search
{
  "explain": true, 
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title^3", "overview"],
      "type": "most_fields"
    }
  }
}
  • cross_fileds:以分詞為單位計(jì)算總分:搜索詞在不同的fields中的最大值作為這個(gè)詞的打分,然后將每個(gè)詞的打分相加
GET /tmdb_movies/_search
{
  "explain": true, 
  "query": {
    "multi_match": {
      "query": "basketball with cartoom aliens",
      "fields": ["title", "overview"],
      "type": "cross_fields"
    }
  }
}

上面的解釋我們?cè)賮斫忉屢幌拢何覀儾樵僢asketball with cartoom aliens,它的分詞結(jié)果為basketball,cartoom,alien【為啥with被去掉了呢?因?yàn)槭峭S迷~】。cross_fields的type會(huì)先計(jì)算每個(gè)詞在每個(gè)fields上的打分,我們用表格來表示一下:

- basketball cartoom alien
title 1.0 2.0 1.5
overview 2.0 3.0 1.0

這個(gè)表格表示basketball在title和overview字段上的打分 分別為1.0和2.0,其他字段以此類推。所以cross_fields這個(gè)type就是取每個(gè)分詞在每個(gè)字段上的最高打分,然后相加,作為文檔的得分。我們這個(gè)例子里,basketball最高得分為2.0,cartoom最高得分為3.0,alien最高的分為1.5,所以文檔的最終等分為:2.0 + 3.0 + 1.5 = 6.5

6. query_string

# 索引兩篇文檔
PUT /person/_doc/1
{
  "name": "sun rui kai",
  "know": "java"
}

PUT /person/_doc/2
{
  "name": "gabriella",
  "know": "you and i"
}

查詢

# 在name字段上查詢,必須有sun和rui
GET /person/_search
{
  "query": {
    "query_string": {
      "default_field": "name",
      "query": "sun AND rui"
    }
  }
}

# 可以指定多個(gè)字段
GET /person/_search
{
  "query": {
    "query_string": {
      "fields": ["name", "know"],
      "query": "(sun AND rui) OR gabriella"
    }
  }
}
支持的操作 例子 描述
1 a AND b 必須有a和b
2 a NOT b 必須有a,必須沒有b
3 a OR b 有a,b兩者其一即可

7. simple_query_string

看名字就知道它跟query_string差不多,那到底有啥區(qū)別呢?來個(gè)栗子

# 我們?cè)谏厦娴幕A(chǔ)上我們?cè)偌右黄臋n
PUT /person/_doc/3
{
  "name": "sun rui xie",
  "know": "elasticsearch"
}

# 我們用simple_query_string來試試
GET /person/_search
{
  "query": {
    "simple_query_string": {
      "query": "sun AND xie",
      "fields": ["name"]
    }
  }
}
  • 查詢結(jié)果
{
  "took" : 763,
  "timed_out" : false,
  "_shards" : {
    "total" : 1,
    "successful" : 1,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : {
      "value" : 2,
      "relation" : "eq"
    },
    "max_score" : 1.2990015,
    "hits" : [
      {
        "_index" : "person",
        "_type" : "_doc",
        "_id" : "3",
        "_score" : 1.2990015,
        "_source" : {
          "name" : "sun rui xie",
          "know" : "elasticsearch"
        }
      },
      {
        "_index" : "person",
        "_type" : "_doc",
        "_id" : "1",
        "_score" : 0.4208172,
        "_source" : {
          "name" : "sun rui kai",
          "know" : "java"
        }
      }
    ]
  }
}
  • 可以看到用simple_query_string,我們用AND連接已經(jīng)失效了,這就是兩者的區(qū)別:在simple_query_string中,query中使用query_string中的連接符會(huì)當(dāng)做普通的普通的字符串來匹配,那如果我們?nèi)绾沃付ㄟB接符呢?
GET /person/_search
{
  "query": {
    "simple_query_string": {
      "query": "sun xie",
      "fields": ["name"],
      "default_operator": "AND"
    }
  }
}
  • 指定default_operator字段為AND等就可以,默認(rèn)是OR
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容