etcd学习(5)-etcd的Raft一致性算法原理 - Rick.lz - D1h.Net第一号博客
Warm water frog
不写笔记,不读书
D1h.Net第一号博客   首页   新随笔   联系   订阅 订阅   管理

etcd学习(5)-etcd的Raft一致性算法原理

ETCD的Raft一致性算法原理

前言

关于Raft的文章很多,本文是参考了很多的文章之后,总结出来的,写的不对之处欢迎赐教。

Raft原理了解

Raft 是一种为了管理复制日志的一致性算法。它提供了和 Paxos 算法相同的功能和性能,但是它的算法结构和 Paxos 不同,使得 Raft 算法更加容易理解并且更容易构建实际的系统。

Raft是一种分布式一致性算法。它被设计得易于理解, 解决了即使在出现故障时也可以让多个服务器对共享状态达成一致的问题。共享状态通常是通过日志复制支持的数据结构。只要大多数服务器是正常运作的,系统就能全面运行。

Raft的工作方式是在集群中选举一个领导者。领导者负责接受客户端请求并管理到其他服务器的日志复制。数据只在一个方向流动:从领导者到其他服务器。

Raft将一致性问题分解为三个子问题:

  • 领导者选举: 现有领导者失效时,需要选举新的领导者;

  • 日志复制: 领导者需要通过复制保持所有服务器的日志与自己的同步;

  • 安全性: 如果其中一个服务器在特定索引上提交了日志条目,那么其他服务器不能在该索引应用不同的日志条目。

raft选举

raft中的几种状态

在raft算法中,在任何时刻,每一个服务器节点都处于这三个状态之一:

  • Follower:追随者,跟随者都是被动的:他们不会发送任何请求,只是简单的响应来自领导者或者候选人的请求;

  • Candidate:候选人,如果跟随者接收不到消息,那么他就会变成候选人并发起一次选举,获得集群中大多数选票的候选人将成为领导者。

  • Leader:领导者,系统中只有一个领导人并且其他的节点全部都是跟随者,领导人处理所有的客户端请求(如果一个客户端和跟随者联系,那么跟随者会把请求重定向给领导人)

来看下几个状态的关系

raft

任期

Raft将时间划分为任意长度的任期,每个任期都以一次选举开始。如果一名候选人赢得选举,他在剩下的任期时间内仍然是领导者。如果投票出现分歧,那么这个任期则没有领导者,及时结束。

任期号单调递增。每个服务器存储当前任期号,并在每次通信中交换该任期编号。

如果一个服务器的当前任期号小于其他服务器,那么它将把当前任期更新为更大的值。如果候选人或领导者发现其任期已过期,则立即转化为追随者状态。如果服务器接收到带有过期任期号的请求,它将拒绝该请求。

leader选举

领导者定期向跟随者发送心跳,来维持自己的leader角色。如果跟随者在一定的时间内没有接收到任何的消息,也就是选举超时,那么他就会认为系统中没有可用的领导者,并且发起选举以选出新的领导者。

要开始一次选举过程,跟随者先要增加自己的当前任期号并且转换到候选人状态。然后他会并行的向集群中的其他服务器节点发送请求投票的 RPCs 来给自己投票。

候选人的选举会有下面三种结果:

1、候选人自己赢得了选举;

2、其他服务成为了leader;

3、候选人中没有选出领导者,可能是多个跟随者同时成为候选人,然后选票被瓜分了,以至于没有候选人能获得最大的票数。这种情况下面详细介绍。

对于选举过程,对于选票被瓜分的情况,Raft算法使用随机候选超时时间的方法来确保很少会发生选票瓜分的情况,就算发生也能很快的解决。

来看下这个选举的随机算法:

1、为了阻止选票起初就被瓜分,候选超时时间是从一个固定的区间(例如 150-300 毫秒)随机选择;

2、这个候选超时时间就是follower要等待成为candidate的时间;

3、每一个候选人在开始一次选举的时候会重置一个随机候选的时间,也就是150-300中随机一个值;

4、这个时间结束之后follower变成candidate开始选举,不同时候苏醒竞争leader,这样苏醒早的就有竞争优势;

5、这样大大减少了选票被瓜分的情况,如何选票还是被瓜分,就继续从1开始选举。

日志复制

一旦leader被选举成功,就可以对客户端提供服务了。客户端提交每一条命令都会被按顺序记录到leader的日志中,每一条命令都包含term编号和顺序索引,然后向其他节点并行发送AppendEntries RPC用以复制命令(如果命令丢失会不断重发),当复制成功也就是大多数节点成功复制后,leader就会提交命令,即执行该命令并且将执行结果返回客户端,raft保证已经提交的命令最终也会被其他节点成功执行。

来看下是具体的流程:

1、所有的请求都先经过leader,每个请求首先以日志的形式保存在leader中,然后这时候日志的状态是uncommited状态;

2、然后leader将这些更改的请求发送到follower;

3、leader等待大多数的follower确认提交;

4、leader在等待大多数的follower确认提交之后,commit这些更改,提交这个信息到自己的状态机中,然后通知客户端更新的结果;

5、同时leader会不断的尝试通知follower去存储所有更新的信息。

raft

日志由有序编号(log index)的日志条目组成。每个日志条目包含它被创建时的任期号(term),和用于状态机执行的命令。如果一个日志条目被复制到大多数服务器上,就被认为可以提交(commit)了。

raft

Raft日志同步保证如下两点:

  • 如果不同日志中的两个条目有着相同的索引和任期号,则它们所存储的命令是相同的;

  • 如果不同日志中的两个条目有着相同的索引和任期号,则它们之前的所有条目都是完全一样的。

第一条特性源于Leader在一个term内在给定的一个log index最多创建一条日志条目,同时该条目在日志中的位置也从来不会改变。

第二条特性:Raft算法在发送日志复制请求时会携带前置日志的term和logIndex值(即 prevLogTerm 和 prevLogIndex),只有在 prevLogTerm 和 prevLogIndex 匹配的情况下才能成功响应请求。如果prevLogTerm和prevLogIndex不匹配,则说明当前节点可能是新加入的、或者之前服从于其它Leader,亦或当前节点之前是Leader节点。为了兑现承诺二,Leader节点需要与该Follower节点向前追溯找到term和logIndex匹配的那条日志,并使用Leader节点的日志强行覆盖该Follower此后的日志数据。

一般情况下,Leader和Followers的日志保持一致,因此AppendEntries一致性检查通常不会失败。然而,Leader崩溃可能会导致日志不一致:旧的Leader可能没有完全复制完日志中的所有条目。一个Follower可能会丢失掉Leader上的一些条目,也有可能包含一些Leader没有的条目,也有可能两者都会发生。丢失的或者多出来的条目可能会持续多个任期。

Leader通过强制Followers复制它的日志来处理日志的不一致,Followers上的不一致的日志会被Leader的日志覆盖。

Leader为了使Followers的日志同自己的一致,Leader需要找到Followers同它的日志一致的地方,然后覆盖Followers在该位置之后的条目。

Leader会从后往前试,每次AppendEntries失败后尝试前一个日志条目,直到成功找到每个Follower的日志一致位点,然后向后逐条覆盖Followers在该位置之后的条目。

安全性

上面我们讨论的是理想状态下的情况,在实际的生产环境中,我们会遇到各种各样的情况。这里参考了一位大佬文章理解 Raft 分布式共识算法

下面来讨论几种常见的问题

leader宕机,新的leader未同步前任committed的数据

leader宕机了,然后又选出了新的leader,但是新的leader没有同步前任committed的数据,新leader节点会强行覆盖集群中其它节点与自己冲突的日志数据。

如何避免:

这种情况raft会对参加选举的节点进行限制,只有包含已经committed日志的节点才有机会竞选成功

  • 1、参选节点的term值大于等于投票节点的term值;

  • 2、如果 term 值相等,则参选节点的 lastLogIndex 大于等于投票节点的 lastLogIndex 值。

Leader在将日志复制给Follower节点之前宕机

如果在复制之前宕机,当然这时候消息处于uncommitted状态,新选出的leader一定不包含这些日志信息,所以新的leader会强制覆盖follower中跟他冲突的日志,也就是刚刚宕机的leader,如果变成follower,他未同步的信息会被新的leader覆盖掉。

Leader在将日志复制给Follower节点之间宕机

在复制的过程中宕机,会有两种情况:

  • 1、只有少数的follower被同步到了;

  • 2、大多数的follower被同步到了;

情况1:如果只有少数的follower被同步了,如果新的leader不包含这些信息,新的leader会覆盖那些已经同步的节点的信息,如果新的节点包含这些数据,直接走到下面的情况2;

情况2:Leader在复制的过程中宕机,所以肯定消息是没有commit的,新的leader需要再次尝试将其复制给各个Follower节点,并依据自己的复制状态决定是否提交这些日志。

Leader在响应客户端之前宕机

这种情况,我们根据上面的同步机制可以知道,消息肯定是committed状态的,新的leader肯定包含这个信息,但是新任Leader可能还未被通知该日志已经被提交,不过这个信息在之后一定会被新任Leader标记为committed。

不过对于客户端可能超时拿不到结果,认为本次消息失败了,客户端需要考虑幂等性。

时间和可用性

Raft 的要求之一就是安全性不能依赖时间:整个系统不能因为某些事件运行的比预期快一点或者慢一点就产生了错误的结果。但是,可用性(系统可以及时的响应客户端)不可避免的要依赖于时间。

领导人选举是 Raft 中对时间要求最为关键的方面。Raft 可以选举并维持一个稳定的领导人,只要系统满足下面的时间要求:

广播时间(broadcastTime) << 候选超时时间(electionTimeout) << 平均故障间隔时间(MTBF)

  • broadcastTime: 广播时间指的是从一个服务器并行的发送 RPCs 给集群中的其他服务器并接收响应的平均时间,也就是集群之间的平均延时时间;

  • electionTimeout: 追随者设置的候选超时时间;

  • MTBF:平均故障间隔时间就是对于一台服务器而言,两次故障之间的平均时间。

如果一个follower在一个electionTimeout时间内没有接收到leader的RPC,也没有接收到其他candidate的voteRequestRPC,他就会苏醒,变成candidate状态,开始新一轮的投票。所以broadcastTime要小于electionTimeout的时间。

在Leader宕机与选举出新任Leader之间,整个集群处于无主的状态,我们应该尽可能缩短此类状态的持续时间,而控制的参数就是electionTimeout的最小值,所以electionTimeout需要在保证大于broadcastTime的前提下远小于一个集群中机器的平均故障间隔时间MTBF。

网络分区问题

如果由于网络的隔离,导致原来的Raft集群分裂成多个小的集群,各自分区中会重新开始选举形各自形成新的leader

raft

在各自分区之内,各自leader会收到不同的client发送的请求,但是我们集群的节点还是5,所以两个节点的分区必定选不出leader。

  • 如果请求发送给了3个节点的分区,因为集群包含3个节点,所以提交给该分区的指令对应的日志存在被committed的可能性,此时3个节点均成功复制了日志。

  • 如果请求发送给了2个节点的分区,因为集群包含2个节点,所以提交给该集群的指令对应的日志因不满足过半数的条件而无法被提交。

当网络恢复的时候,新的leader必定在三个集群的节点中选取(为什么呢?可参看上文的安全性),然后新的leader覆盖未同步的2个节点中的数据。

总结

1、Raft在对应的任期中每次只有一个leader产生,通过候选超时算法,保证了在大多数只有一个leader被选出的情况;

2、所有的数据都是从leader流向follower中,通过日志的复制确认机制,保证绝大多数的follower都能同步到消息;

3、当然,raft对于分布式中出现的各种安全性问题也做了兼容;

4、不过真正实现一个生产级别的Raft算法库,需要考虑的东西还是很多,这里主要分析了几个主要的问题。

参考

【一文搞懂Raft算法】https://www.cnblogs.com/xybaby/p/10124083.html
【寻找一种易于理解的一致性算法(扩展版)】https://github.com/maemual/raft-zh_cn/blob/master/raft-zh_cn.md
【raft演示动画】https://raft.github.io/raftscope/index.html
【理解 raft 算法】https://sanyuesha.com/2019/04/18/raft/
【理解Raft一致性算法—一篇学术论文总结】https://mp.weixin.qq.com/s/RkMeYyUck1WQPjNiGvahKQ
【Raft协议原理详解】https://zhuanlan.zhihu.com/p/91288179
【Raft算法详解】https://zhuanlan.zhihu.com/p/32052223

posted on 2021-08-03 15:00  Rick.lz  阅读(374)  评论(0编辑  收藏  举报
刷新评论刷新页面返回顶部

Powered by: D1h.Net第一号博客 Copyright © 2021 Rick.lz
Powered by .NET 6 on Kubernetes

问答 28u iTmz.Net 3q科技 A8团队1 A8团队2 A8团队3 A8备