Elasticsearch 高手之路
  • Introduction
  • First Chapter
  • 1.ElasticSearch 5.x 安装
    • 1.1.Window 环境
    • 1.2.Linux 环境
  • 2.基础学前班
  • 3.基础
    • 3.1.配置文件
    • 3.2.Mapping
      • 3.2.1.字段的数据类型
        • 3.2.1.1.核心数据类型
        • 3.2.1.2.复合数据类型
        • 3.2.1.3.Geo地理数据类型
        • 3.2.1.4.特定数据类型
      • 3.2.2.Meta-Fields(元字段)
        • _index,_uid,_type,_id 元字段
        • _source,_size 元字段
        • _all, _field_names元字段
        • _parent,_routing 元字段
        • _meta 元字段
      • 3.2.3.Mapping parameters(映射参数)
        • analyzer(分析器)
        • normalizer(归一化)
        • boost(提升)权重
        • Coerce(强制类型转换)
        • copy_to(合并参数)
        • doc_values(文档值)
        • dynamic(动态设置)
        • enabled(开启字段)
        • fielddata(字段数据)
        • format (日期格式)
        • ignore_above(忽略超越限制的字段)
        • ignore_malformed(忽略格式不对的数据)
        • include_in_all(_all 查询包含字段)
        • index_options(索引设置)
        • index (索引)
        • fields(字段)
        • norms (标准信息)
        • null_value(空值)
        • position_increment_gap(短语位置间隙)
        • properties (属性)
        • search_analyzer (搜索分析器)
        • similarity (相似度模型)
        • store(存储)
        • term_vectors(词根信息)
      • 3.2.4.Dynamic Mapping(动态映射)
        • _default_ mapping(mapping中的_default_)
        • Dynamic field mapping(动态字段映射)
        • Dynamic templates(动态模板)
        • Override default template(覆盖默认模板)
    • 3.3. Analysis(分析)
      • 3.3.1.Anatomy of an analyzer(分析器的分析)
      • 3.3.2.Testing analyzers(测试分析器)
      • 3.3.3.Analyzers(分析器)
        • Configuring built-in analyzers(配置内置分析器)
        • Standard Analyzer(标准分析器)
        • Simple Analyzer(简单分析器)
        • Whitespace Analyzer(空格分析器)
        • Stop Analyzer(停止词分词器)
        • Keyword Analyzer(关键词分析器)
        • Pattern Analyzer(模式分析器)
        • Language Analyzers(语言分析器)
        • Fingerprint Analyzer(指纹分析器)
        • Custom Analyzer(自定义分析器)
      • 3.3.4. Tokenizers(分词器)
        • Standard Tokenizer(标准分词器)
        • Letter Tokenizer
        • Lowercase Tokenizer (小写分词器)
        • Whitespace Tokenizerr (空格分词器)
        • UAX URL Email Tokenizer
        • Classic Tokenizer
        • Thai Tokenizer(泰语分词器)
        • NGram Tokenizer
        • Edge NGram Tokenizer
        • Keyword Tokenizer(关键词分词器)
        • Pattern Tokenizer(模式分词器)
        • Path Hierarchy Tokenizer(路径层次分词器)
      • 3.3.5.Token Filters(词语过滤器)
      • 3.3.5.补充1:Token Filters(词语过滤器)
      • 3.3.5.补充2:Token Filters(词语过滤器)
      • 3.3.6.Character Filters(字符过滤器)
        • HTML Strip Character Filter(HTML标签过滤)
        • Mapping Character Filter(字符替换映射)
        • Pattern Replace Character Filter(正则替换字符)
    • 3.4. APIs
      • 3.4.1.索引 APIs (Indices APIs)
        • 创建/删除/获取->索引
        • 启动关闭/缩小/滚动->索引
        • 提交/获取/获取字段->映射
        • 索引->别名/是否存在/类型存在
        • 更新索引/获取->设置(未完成)
        • 分析器、索引模板(未完成)
        • Shadow replica indices 卷影副本索引
        • 索引->统计信息/段
        • 索引->恢复/分片存储
        • 清理缓存/刷新/同步刷新
        • 重新加载/强制合并
      • 3.4.2.文档 APIs (Document APIs)
        • 读写文档(Reading and Writing documents)
        • 索引文档 API
        • 获取/批量获取->文档
        • 删除/根据查询API删除
        • 更新/根据查询API更新
        • Bulk API(批量操作)
        • Reindex API(复制索引)
        • Term Vectors(词条向量)/Multi termvectors API
        • ?refresh
      • 3.4.3.搜索 APIs (Search APIs)
        • Search / URI Search
        • Request Body Search(未完成)
          • Query / From / Size
          • Sort / Source filtering
          • Fields / Script Fields / Doc value Fields
          • Post filter
          • Highlighting
          • Rescoring / Search Type
          • Scroll
          • Preference / Explain
          • Version / Index Boost
          • min_score / Named Queries
          • Inner hits / Search After
          • Field Collapsing 字段折叠
        • Search 模板/Multi Search 模板
        • Search Shards API
        • Suggesters
          • Term suggester
          • Phrase Suggester
          • Completion Suggester
          • Context Suggester
          • 返回suggester的类型
        • Multi Search API
        • Count API
        • Validate API
        • Explain API
        • Profile API
          • Profiling Queries
          • Profiling Aggregations
          • Profiling Considerations
        • Percolator / Field stats API
        • Field Capabilities API
    • 3.5.Query DSL(DSL方式查询)
      • 3.5.1.查询和过滤上下文
      • 3.5.2.Match All 查询
      • 3.5.3.全文搜索(Full Text Search)
        • 匹配查询(Match Query)
        • 短语匹配查询(Match Phrase Query)
        • 短语前缀匹配查询(Match Phrase Prefix Query)
        • 多字段查询(Multi Match Query)
        • 常用术语查询(Common Terms Query)
        • (Query String Query) 未完成
      • 3.5.4.Term级别查询(Term level queries)
        • Term 查询
        • Terms 查询
        • Range 查询(范围查询)
        • Exists 查询(非空值查询)
        • Prefix 查询(前缀查询)
        • Wildcard 查询(通配符查询)
        • Regexp 查询(正则表达式查询)
        • Fuzzy 查询(模糊查询)
        • Type Query(类型查询)
        • Ids Query(ID 查询)
      • 3.5.5.复合查询(Compound queries)
        • Constant Score 查询
        • Bool 查询
        • Dis Max 查询
        • Function Score 查询
        • Boosting 查询
        • Indices 查询
      • 3.5.6.Joining 查询(连接查询)
        • Nested Query(嵌套查询)
        • Has Child Query
        • Has Parent Query
        • Parent Id Query
      • 3.5.7.地理位置查询 (Geo queries)
        • GeoShape Query(地理形状查询)
        • Geo Bounding Box Query(地理边框查询)
        • Geo Distance Query(地理距离查询)
        • Geo Distance Range Query(地理距离范围查询)
        • Geo Polygon Query(地理多边形查询)
      • 3.5.8.专业查询(Specialized queries)
      • 3.5.9.Span 查询
        • Span Term 查询
        • Span Multi Term 查询
        • Span First 查询
        • Span Near 查询
        • Span Or 查询
        • Span Not 查询
        • Span Containing 查询
        • Span Within 查询
        • Span Field Masking 查询
    • 3.6.Aggregations(聚合分析)
      • 3.6.1.量度聚合(Metric Aggregations)
        • 平均值聚合(Avg Aggregation)
        • 基数聚合(Cardinality Aggregation)
        • 扩展统计聚合( Extended Stats Aggregation)
        • 地理边界聚合(Geo Bounds Aggregation)
        • 地理重心聚合(Geo Centroid Aggregation)
        • 最大值聚合(Max Aggregation)
        • 最小值聚合(Min Aggregation)
        • Percentiles Aggregation
        • Percentile Ranks Aggregation
        • Scripted Metric Aggregation
        • Stats Aggregation
        • 总和聚合(Sum Aggregation)
        • Top hits Aggregation
        • Value Count Aggregation
      • 3.6.2.桶聚合(Bucket Aggregations)
        • 邻接矩阵聚合(Adjacency Matrix Aggregation)
        • Children Aggregation
        • 日期直方图聚合(Date Histogram Aggregation)
        • 日期范围聚合(Date Range Aggregation)
        • 多元化的采样器聚集(Diversified Sampler Aggregation)
        • 过滤器聚合(Filter Aggregation)
        • 多过滤器聚合(Filters Aggregation)
        • 地理距离聚合(Geo Distance Aggregation)
        • GeoHash网格聚合(GeoHash grid Aggregation)
        • 全局聚合(Global Aggregation)
        • 直方图聚合(Histogram Aggregation)
        • IP范围聚合(IP Range Aggregation)
        • 丢失字段聚合(Missing Aggregation)
        • 嵌套聚合(Nested Aggregation)
        • 范围聚合(Range Aggregation)
        • Reverse nested Aggregation
        • 采样聚合(Sampler Aggregation)
        • Significant Terms Aggregation
      • 3.6.3.管道聚合(Pipeline Aggregations)
        • 平均值桶聚合( Avg Bucket Aggregation)
        • 导数聚合(Derivative Aggregation)
        • 最大值桶聚合(Max Bucket Aggregation)
        • 最小值桶聚合(Min Bucket Aggregation)
        • 总和桶聚合(Sum Bucket Aggregation)
        • 统计桶聚合(Stats Bucket Aggregation)
        • 扩展信息桶聚合(Extended Stats Bucket Aggregation)
        • 百分数桶聚合(Percentiles Bucket Aggregation)
        • Moving Average Aggregation
        • 累积汇总聚合(Cumulative Sum Aggregation)
        • 桶脚本聚合(Bucket Script Aggregation)
        • 桶选择器聚合(Bucket Selector Aggregation)
        • 串行差异聚合(Serial Differencing Aggregation)
      • 3.6.4.矩阵聚合(Matrix Aggregations)
        • 矩阵统计(Matrix Stats)
      • 3.6.5.缓存频繁聚合(Caching heavy aggregations)
      • 3.6.6.仅返回需要聚合的结果(Returning only aggregation results)
      • 3.6.7.聚合元数据(Aggregation Metadata)
      • 3.6.8.返回聚合的类型(Returning the type of the aggregation)
    • Glossary of terms (词汇表)
    • 未完成的任务
  • 4.基础补充总结
    • 3.2.Mapping
    • 3.3.分析器与定义自己的分析器(Analyzer)
  • 原理
  • 实战
    • 结构化搜索
    • 聚合分析
    • 数据建模
    • 应用场景
  • PHP API
    • 安装与快速入门
    • 配置
    • 实战
  • 资料
  • 笔记
    • 1.x 升级 2.x
Powered by GitBook
On this page
  • Introduction(介绍)
  • Basic write model(基础的写模型)
  • Failure handling(故障处理)
  • Basic read model(基础的读取模型)
  • Failure handling(故障处理)
  • A few simple implications(一些简单的含义)
  • Failures(故障)
  • The Tip of the Iceberg(部分建议)

Was this helpful?

  1. 3.基础
  2. 3.4. APIs
  3. 3.4.2.文档 APIs (Document APIs)

读写文档(Reading and Writing documents)

Previous3.4.2.文档 APIs (Document APIs)Next索引文档 API

Last updated 5 years ago

Was this helpful?

Introduction(介绍)

在Elasticsearch中的每个索引都会被 ,并且每个分片都有多个副本。这些副本称为 replication group(副本组)并且在删除或者添加文档的时候必须同步到各个副本。如果我们做不到这点,从不同副本中读取的数据会不一致。我们把保持分片和副本之间的同步以及从中读取的过程就是我们所说的 data replication model(数据复制模型)。

Elasticsearch的 data replication model(数据复制模型)是基于primary-backup model(主备模型)的,并且在Microsoft Research的PacificA paper 中描述得非常好。该模型以来自replication group(副本组,实际是主分片)的单个副本为基础。其它副本叫做replica shards(副本分片)。主分片是所有索引操作的入口。它负责验证索引操作是否有效。一旦主分片接受一个索引操作,主分片的副本分片也会接受该操作。

本节的目的是给出Elasticsearchreplication model的高级概述,并讨论它对写操作和读操作之间的各种交互的影响。

Basic write model(基础的写模型)

每个索引操作首先会使用routing 参数解析到replication group(分片组,包含主分片和副本分片) ,通常基于文档ID。一旦确定replication group,就会内部地转发该操作到分片组的主分片中。主分片负责验证操作和转发它到其他副本分片。Elasticsearch维护一个可以接收该操作的分片的副本列表。这个列表叫做in-sync copies(同步中的副本)并由master节点维护。正如名字那样,保证这些分片都会处理所有的索引和删除操作,这些操作都会经过用户确认。主分片负责维护不变性(各个副本保持一致),因此必须复制这些操作到列表中的每个副本。

主分片遵循以下基本流程 :

  1. 验证操作,如果它的结构有错就拒绝该操作(例如,对object 段指定一个数字值)

  2. 在本地执行操作。即索引或删除相关文档。这也会验证字段的内容,如果不通过就拒绝操作(例如,字段串的长度超出Lucene 的定义的长度)

  3. 转发该操作到当前in-sync副本组的所有副本分片。如果有多个副本分片,会并行转发。

  4. 一旦所有的副本分片成功执行该操作就会返回给主分片,主分片把请求的成功执行的信息返回给用户。

Failure handling(故障处理)

索引期间会发生很多错误 - 硬盘坏了,节点丢失和其他节点的连接,或者某些配置错误会导致不能在副本分片上执行某个操作,尽管该操作成功在主分片上执行。虽然这是罕见的,但是主分片必须汇报这些错误信息。

对于主分片自身错误的情况,它所在的节点会发送一个消息到 master 节点。这个索引操作会等待( 最多一分钟)master 节点提升一个副本分片为主分片。这个操作会被转发给新的主分片处理。注意 master 同样会监控节点的健康,并且可能会主动降级主分片。这通常发生在主分片所在的节点和集群失去联系的时候。点击 查看更多细节。

一旦在主分片执行的操作成功,该主分片必须处理在副本分片上潜在发生的错误。错误发生的原因可能是,在副本分片上执行操作时发生的错误,也可能是因为网络阻塞,导致主分片无法转发操作到副本分片,或者副本分片无法返回结果给主分片。这些错误都会导致相同的结果 : in-sync replica set 中的一个分片丢失一个即将要确认的操作。为了避免出现不一致,主分片会发送一条消息到 master 节点,要求它把有问题的分片从 in-sync replica set 中移除。 一旦 master 确认移除了该分片,主分片就会确认这次操作。注意 master 也会指导另一个节点建立一个新的分片副本,以便把系统恢复成健康状态。

在转发请求到副本分片时,主分片会使用副本分片来验证它是否仍是一个活跃的主分片。如果主分片因为网络原因(或很长的 GC)被隔离了,在它被降级之前它会继续处理传入的索引操作。来自陈旧的主分片的操作将会被副本分片拒绝。当主分片接收到来自拒绝其请求的响应时,因为它不再是主节点,所以它将会访问到主节点,并且将会知道它已被替换。 然后将操作路由到新的主分片。

Note(注意): 如果没有副本会发生什么? 这是一个有效的场景,由于索引配置或因为所有副本故障时会发生。这时候在没有任何外部验证的情况下处理该操作,可能会导致问题。另一方面,主分片不能使它的分片失效,但它会请求 master 使它们失效 。这意味着,master 知道只有主分片才是一个可用的副本。因此我们确保 master 不会提升任何其他分片副本(过时)为主分片,并且索引到主分片上的任何操作都不会丢失。当然,由于在这一点上,我们只运行单个的数据副本,因此物理硬件问题可能会导致数据丢失。 有关缓解这些问题的选项,请参阅 “等待活动分片” 一节。

Basic read model(基础的读取模型)

通过id查找是非常轻量级的,一个巨大的复杂的聚合查询请求需要消耗大量cpu资源。primary-backup model一个好处是保证所有的分片副本都是一致(正在执行的操作例外)。因此,单个in-sync副本也可以服务请求。

当一个读请求被节点接收,这个节点负责转发它到其他涉及相关分片的节点,并整理响应结果,发送给客户端。我们叫这个节点为这个请求的coordinating node(协调节点)。基本流程如下 :

  1. 把读请求发送到相关分片。注意,因为大多数搜索都会发送到一个或多个索引,通常需要从多个分片读取,每个分片都保存这些数据的一部分。

  2. 从shard replication group 选择一个相关分片的活跃副本。它可以是一个主分片或者副本分片。默认情况下,Elasticsearch会简单地循环遍历这些分片。

  3. 发送一个分片级别的读请求到被选中的副本中。

  4. 合并结果和响应。注意针对通过id查找的get 请求 ,会跳过这个步骤,因为只有一个相关的分片。

Failure handling(故障处理)

当分片不能响应一个读请求,协调节点会从 replication group 中选择另一个副本,并发送请求到该副本代替不可用的副本。没有可用的分片副本会导致重复的错误。某些情况下,Elasticsearch 更喜欢尽早响应,即使只有部分的结果,而不是等待问题解决(你可以在响应结果的 _shards 字段,检查本次结果是完整的还是部分的)

A few simple implications(一些简单的含义)

每一个这样的基础流决定了Elasticsearch作为一个系统在读和写之间是如何表现的。此外,由于可以同时执行读写请求,所以这两个基本流彼此相互作用。这有一些固有的含义 :

Efficient reads(高效读取)

在正常操作下,每个相关复制组执行一次读取操作一次。只有在故障条件下,同一个分片的多个副本才能执行相同的搜索。

Read unacknowledged

由于主分片首先在本地进行索引,然后复制请求,所以并发读取可以在确认之前已经看到更改。

Two copies by default

该模型可以容错,同时只保留两个数据副本。这与 quorum-based 的系统相反,其中容错的最小副本为3。

Failures(故障)

在故障的情况下,可以进行以下操作 :

A single shard can slow down indexing(单个分片可以降低索引速度)

因为在每次操作时该主分片会等待所有在in-sycn(同步中的)副本集合中的副本。所以单个slowshard(缓慢的副本)可以减慢整个副本组的速度。这是我们为上述读取效率付出的代价。当然,单个缓慢的分片也会减慢已经路由给它的unlucky searches(不利的搜索)。

Dirty reads(脏读)

隔离的主分片可以暴露不被确认的写入。这是由于隔离的主要设备只有在向其副本发送请求或者向 master 发送请求时才会被隔离。在这一点上,操作已经被索引到主分片并且可以通过并发读取获得。Elasticsearch 通过每秒钟(默认情况下)ping master 来降低这种风险,如果没有master,则拒绝索引操作。

The Tip of the Iceberg(部分建议)

本文档提供了Elasticsearch如何处理数据的高级概述。当然,真实情况还要更复杂。考虑下主要的术语,集群状态发布和master 选举等都起到了保持系统正常运行的作用。本文档不包括已知和重要的错误(已关闭和打开)。我们认识到 。为了帮助这些人,我们在我们的网站上维护一个专用的 。我们强烈建议您阅读。

拆分成分片
默认
这里
GitHub 很难跟上
resiliency page