笔记三十四:剖析分布式查询及相关性算法
分布式搜索的运行机制
- ES的搜索,会分两阶段进行
- 第一阶段 - QUERY
- 第二阶段 - Fetch
- Query - then - Fetch
Query 阶段
- 用户发出搜索请求到ES节点。节点收到请求后,会以Coordinating 节点的身份,在6个主副分片中随机选择3个分片,发送查询请求
- 被选中的分片执行查询,进行排序。然后,每个分片都会返回From + Size 个排序后的文档Id 和排序值给Coordinating节点
Fetch阶段
- Coordinating Node 会将Query阶段,从每个分片获取的排序后的文档Id列表,重新进行排序。选取From 到 From + Size个文档的Id
- 以
multi get
请求的方式,到相应的分片获取详细的文档数据
Query Then Fetch潜在的问题
- 性能问题
- 每个分片上需要查的文档个数 = from + size
- 最终协调节点需要处理:number_of_shard * ( from + size)
- 深度分页
- 相关性算分
- 每个分片都基于自己的分片上的数据进行相关度计算。这会导致打分偏离的情况,特别是数据量很少时,如果文档总数很好的情况下,如果主分片大于1,主分片越多,相关性算分会越不准。
解决算分不准的方法
- 数据量不大的时候,可以将主分片数设置为1
- 当数据量足够大时候,只要保证文档均匀分散在各个分片上,结果一般就不会出现偏差
- 使用 DFS Query Then Fetch
- 搜索的URL 中指定参数 “_search?search_type=dfs_query_then_fetch”
- 到每个分片把各分片的词频和文档频率进行搜集,然后完整的进行一次相关性算分,消耗更加多的CPU和内存,执行性能低下,一般不建议使用
相关性算分问题DEMO
- 写入3条记录 “Good” / “Good moring” / “good morning everyone”
- 使用1个主分片测试,Good应该排在第一,Good DF数值应该是3
- 和20个主分片测试
- 当多个主分片时,3个文档的算分都一样。可以通过Explain API进行分析
- 在3个主分片上执行DFS Query Then Fetch ,结果和一个分片上一致
Demo
DELETE message
PUT message
{
"settings": {
"number_of_shards": 20
}
}
GET message
POST message/_doc?routing=1
{
"content":"good"
}
POST message/_doc?routing=2
{
"content":"good morning"
}
POST message/_doc?routing=3
{
"content":"good morning everyone"
}
POST message/_search
{
"explain": true,
"query": {
"match_all": {}
}
}
POST message/_search
{
"explain": true,
"query": {
"term": {
"content": {
"value": "good"
}
}
}
}
POST message/_search?search_type=dfs_query_then_fetch
{
"query": {
"term": {
"content": {
"value": "good"
}
}
}
}
本作品采用《CC 协议》,转载必须注明作者和本文链接