删除/根据查询API删除
Delete API/删除接口
delete API允许基于指定的ID来从索引库中删除一个JSON文件。下面演示了从一个叫twitter的索引库的tweet type下删除文档,id是1:
上述删除操作的结果是:
版本
索引的每个文档都被标记了版本。当删除文档时, 可以通过指定version
来确保我们试图删除一个实际上已被删除的文档时,它在此期间并没有改变。在文档中执行的每个写入操作,包括删除,都会使其版本递增。
路由
在创建索引文档时如果使用了控制路由的能力,为了删除文档,也应当提供路由值。例如:
以上将删除ID为1的tweet,但会根据用户路由。请注意,如果删除路由值不正确,会导致文档无法删除。
当映射的_routing
被设定为required
且没有指定的路由值时,删除API将抛出RoutingMissingException
并拒绝该请求。
Parent
parent
参数可以被设置,这将基本上与设定路由参数是相同的。
请注意,删除父文档不会自动删除其子文档。根据给定的父文档ID删除所有子文件的一种方法是,通过在创建文档索引时自动生成的_parent
字段来使用根据查询条件删除API进行删除,它的格式是parent_type#parent_id
。
当删除子文档,必须指定其父ID,否则该删除请求将被拒绝和抛出一个RoutingMissingException
异常。
自动创建索引
如果索引库之前没有创建,删除操作将自动创建一个索引库(参见创建索引API来手动创建索引),并且如果没有创建类型时,会根据指定的类型名与动态映射类型来自动创建类型(参见put mapping来手动创建类型映射)。
分布式
删除操作被散列到一个特定的分片id。然后它被重定向到该ID组内的主分片,和副本分片(如果需要的话)。
等待活动分片
当进行的删除请求,你可以设置wait_for_active_shards
参数来要求必须最少达到几个可用的分片才能开始处理删除请求。进一步的细节和使用示例见这里。
刷新
用来控制本次的变化能够被搜索可见。参见:?refresh
.
超时
在执行删除操作时,分配给执行删除操作的主分片可能无法使用。有些方面的原因可能是主分片正在从仓库恢复或进行搬迁。默认情况下,删除操作在返回失败与错误之前将等待1分钟让主分片成为可用的。该timeout
参数可用于明确指定等待多长时间。这里是将其设置为5分钟的一个示例:
Delete By Query API /通过查询 API删除
最简单的用法是使用_delete_by_query
对每个查询匹配的文档执行删除。这是API:
① | 该查询必须以与 Search API 相同的方式作为 |
它将返回类似如下的一些东西:
_delete_by_query
在启动时获取索引的快照,并使用内部版本控制删除它所发现的内容。这意味着如果文档在拍摄快照和处理删除请求之间发生变化,您将获得版本冲突。当版本匹配时文档被删除。
注意
由于内部版本控制不支持值0作为有效的版本号,因此无法使用
_delete_by_query
删除版本等于零的文档,并且将请求失败。
在_delete_by_query
执行期间,依次执行多个搜索请求,以便找到要删除的所有匹配文档。每次发现一批文档时,执行相应的批量请求以删除所有这些文档。如果搜索或批量请求被拒绝,_delete_by_query
依赖于默认策略来重试拒绝的请求(最多10次,以指数返回)。达到最大重试次数限制会导致_delete_by_query
中止,并在响应失败中返回所有故障。已经执行的删除仍然保持。换句话说,进程没有回滚,只会中止。当第一个故障导致中止时,失败批量请求返回的所有故障都会返回到故障元素中;因此,有可能会有不少失败的实体。
如果您想计算版本冲突,而不是导致它们中止,那么在URL上设置conflicts=proceed
或在请求体重中设置"conflicts": "proceed"
。
返回到API格式,您可以将_delete_by_query
限制为单一类型。下面示例将只会从Twitter
的索引中删除tweet
类型的文档:
也可以一次删除多个索引文件和多个类型,就像搜索API:
如果您提供routing
,则将路由复制到滚动查询,将过程限制为与该路由值匹配的分片:
默认情况下_delete_by_query
使用滚动批量处理数量为1000。您可以使用URL的scroll_size
参数更改批量大小:
URL参数
除了标准参数像pretty
之外,“Delete By Query API”还支持refresh
、wait_for_completion
、wait_for_active_shards
、timeout
以及requests_per_second
。
发送refresh
将在一旦根据查询删除完成之后, 刷新所有涉及到的分片。这与删除API的refresh
参数不同,原因只是收到了删除请求的分片被刷新。
如果请求包含wait_for_completion=false
,那么Elasticsearch将执行一些预检检查、启动请求、然后返回一个任务,可以与Tasks API一起使用来取消或获取任务的状态。Elasticsearch还将以.tasks/task/${taskId}
作为文档创建此任务的记录。这是你可以根据是否合适来保留或删除它。当你完成它时,删除它可以让Elasticsearch回收它使用的空间。
wait_for_active_shards
控制在继续请求之前必须有多少个分片必须处于活动状态,详见这里。timeout
控制每个写入请求等待不可用分片变成可用的时间。两者都能正确地在Bulk API中工作。
requests_per_second
可以设置为任何正数(1.4,6,1000等),来作为“delete-by-query”每秒请求数的节流阀数字,或者将其设置为-1
以禁用限制。节流是在批量批次之间等待,以便它可以操纵滚动超时。等待时间是批次完成的时间与request_per_second * requests_in_the_batch
的时间之间的差异。由于分批处理没有被分解成多个批量请求,所以会导致Elasticsearch创建许多请求,然后等待一段时间再开始下一组。这是“突发”而不是“平滑”。默认值为-1。
响应体
JSON响应类似如下:
took
从整个操作的开始到结束的毫秒数。deleted
成功删除的文档数。batches
通过查询删除的滚动响应数量。version_conflicts
根据查询删除时,版本冲突的数量。retries
根据查询删除的重试次数是响应于完整队列。throttled_millis
请求休眠的毫秒数,与`requests_per_second`一致。failures
失败的索引数组。如果这是非空的,那么请求因为这些失败而中止。请参阅 conflicts 来如何防止版本冲突中止操作。
配合Task API使用
您可以使用Task API获取任何正在运行的根据查询删除请求的状态:
响应会类似如下:
①使用任务id可以直接查找任务: | 此对象包含实际状态。它就像是响应json,重要的添加 |
使用任务id可以直接查找任务:
这个API的优点是它与wait_for_completion=false
集成,以透明地返回已完成任务的状态。如果任务完成并且wait_for_completion=false
被设置,那么它将返回results
或error
字段。此功能的成本是wait_for_completion=false
在.tasks/task/${taskId}
创建的文档,由你自己删除该文件。
配合取消任务API使用
所有根据查询删除都能使用Task Cancel API取消:
可以使用上面的任务API找到task_id
。 取消应尽快发生,但可能需要几秒钟。上面的任务状态API将继续列出任务,直到它被唤醒取消自身。
重置节流阀
request_per_second
的值可以在通过查询删除时使用_rethrottle
API更改:
可以使用上面的任务API找到task_id。
就像在_delete_by_query
API中设置它一样,request_per_second
可以是-1
来禁用限制,或者任何十进制数字,如1.7或12,以节制到该级别。加速查询的会立即生效,但是在完成当前批处理之后,减慢查询的才会生效。这样可以防止滚动超时。
手动切片
根据查询删除支持滚动切片,您可以相对轻松地手动并行化处理:
您可以通过以下方式验证:
其结果一个合理的total
像这样:
自动切片
你还可以让根据查询删除使用切片的_uid
来自动并行的滚动切片。
您可以通过以下方式验证:
其结果一个合理的total
像这样:
将slices添加到_delete_by_query中可以自动执行上述部分中使用的手动过程,创建子请求,这意味着它有一些怪癖:
您可以在Task API中看到这些请求。这些子请求是具有slices请求任务的“子”任务。
获取slices请求任务的状态只包含已完成切片的状态。
这些子请求可以单独寻址,例如取消和重置节流阀。
slices的重置节流阀请求将按相应的重新计算未完成的子请求。
slices的取消请求将取消每个子请求。
由于slices的性质,每个子请求将不会获得完全均匀的文档部分。所有文件都将被处理,但有些片可能比其他片大。预期更大的切片可以有更均匀的分布。
带有slices请求的request_per_second和size的参数相应的分配给每个子请求。结合上述关于分布的不均匀性,您应该得出结论,使用切片大小可能不会导致正确的大小文档为_delete_by_query。
每个子请求都会获得源索引的略有不同的快照,尽管这些都是大致相同的时间。
挑选切片数量
在这一点上,我们围绕要使用的slices
数量提供了一些建议(比如手动并行化时,切片API中的max
参数):
不要使用大的数字,
500
就能造成相当大的CPU抖动。从查询性能的角度来看,在源索引中使用分片数量的一些倍数更为有效。
在源索引中使用完全相同的分片是从查询性能的角度来看效率最高的。
索引性能应在可用资源之间以
slices
数量线性扩展。索引或查询性能是否支配该流程取决于许多因素,如正在重建索引的文档和进行
reindexing
的集群。
Last updated