分布式.md 17.7 KB
Newer Older
C
CyC2018 已提交
1
<!-- GFM-TOC -->
C
CyC2018 已提交
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
* [一、分布式锁](#一分布式锁)
    * [数据库的唯一索引](#数据库的唯一索引)
    * [Redis 的 SETNX 指令](#redis-的-setnx-指令)
    * [Redis 的 RedLock 算法](#redis-的-redlock-算法)
    * [Zookeeper 的有序节点](#zookeeper-的有序节点)
* [二、分布式事务](#二分布式事务)
    * [本地消息表](#本地消息表)
    * [2PC](#2pc)
* [三、CAP](#三cap)
    * [一致性](#一致性)
    * [可用性](#可用性)
    * [分区容忍性](#分区容忍性)
    * [权衡](#权衡)
* [四、BASE](#四base)
    * [基本可用](#基本可用)
    * [软状态](#软状态)
    * [最终一致性](#最终一致性)
* [五、Paxos](#五paxos)
    * [执行过程](#执行过程)
    * [约束条件](#约束条件)
C
CyC2018 已提交
22
* [六、Raft](#六raft)
C
CyC2018 已提交
23 24
    * [单个 Candidate 的竞选](#单个-candidate-的竞选)
    * [多个 Candidate 竞选](#多个-candidate-竞选)
C
CyC2018 已提交
25 26
    * [数据同步](#数据同步)
* [参考](#参考)
C
CyC2018 已提交
27 28 29
<!-- GFM-TOC -->


C
CyC2018 已提交
30
# 一、分布式锁
C
CyC2018 已提交
31

C
CyC2018 已提交
32
在单机场景下,可以使用语言的内置锁来实现进程同步。但是在分布式场景下,需要同步的进程可能位于不同的节点上,那么就需要使用分布式锁。
C
CyC2018 已提交
33

C
CyC2018 已提交
34
阻塞锁通常使用互斥量来实现:
C
CyC2018 已提交
35

C
CyC2018 已提交
36 37
- 互斥量为 0 表示有其它进程在使用锁,此时处于锁定状态;
- 互斥量为 1 表示未锁定状态。
C
CyC2018 已提交
38

C
CyC2018 已提交
39
1 和 0 可以用一个整型值表示,也可以用某个数据是否存在表示。
C
CyC2018 已提交
40

C
CyC2018 已提交
41
## 数据库的唯一索引
C
CyC2018 已提交
42

C
CyC2018 已提交
43
获得锁时向表中插入一条记录,释放锁时删除这条记录。唯一索引可以保证该记录只被插入一次,那么就可以用这个记录是否存在来判断是否存于锁定状态。
C
CyC2018 已提交
44

C
CyC2018 已提交
45
存在以下几个问题:
C
CyC2018 已提交
46

C
CyC2018 已提交
47
- 锁没有失效时间,解锁失败的话其它进程无法再获得该锁。
C
CyC2018 已提交
48 49
- 只能是非阻塞锁,插入失败直接就报错了,无法重试。
- 不可重入,已经获得锁的进程也必须重新获取锁。
C
CyC2018 已提交
50

C
CyC2018 已提交
51
## Redis 的 SETNX 指令
C
CyC2018 已提交
52

C
CyC2018 已提交
53
使用 SETNX(set if not exist)指令插入一个键值对,如果 Key 已经存在,那么会返回 False,否则插入成功并返回 True。
C
CyC2018 已提交
54

C
CyC2018 已提交
55
SETNX 指令和数据库的唯一索引类似,保证了只存在一个 Key 的键值对,那么可以用一个 Key 的键值对是否存在来判断是否存于锁定状态。
C
CyC2018 已提交
56

C
CyC2018 已提交
57
EXPIRE 指令可以为一个键值对设置一个过期时间,从而避免了数据库唯一索引实现方式中释放锁失败的问题。
C
CyC2018 已提交
58

C
CyC2018 已提交
59
## Redis 的 RedLock 算法
C
CyC2018 已提交
60

C
CyC2018 已提交
61
使用了多个 Redis 实例来实现分布式锁,这是为了保证在发生单点故障时仍然可用。
C
CyC2018 已提交
62

C
CyC2018 已提交
63
- 尝试从 N 个相互独立 Redis 实例获取锁;
C
CyC2018 已提交
64
- 计算获取锁消耗的时间,只有当这个时间小于锁的过期时间,并且从大多数(N / 2 + 1)实例上获取了锁,那么就认为锁获取成功了;
C
CyC2018 已提交
65
- 如果锁获取失败,就到每个实例上释放锁。
C
CyC2018 已提交
66

C
CyC2018 已提交
67
## Zookeeper 的有序节点
C
CyC2018 已提交
68

C
CyC2018 已提交
69
### 1. Zookeeper 抽象模型
C
CyC2018 已提交
70

C
CyC2018 已提交
71
Zookeeper 提供了一种树形结构级的命名空间,/app1/p_1 节点的父节点为 /app1。
C
CyC2018 已提交
72

C
CyC2018 已提交
73
<div align="center"> <img src="../pics//31d99967-1171-448e-8531-bccf5c14cffe.jpg" width="400"/> </div><br>
C
CyC2018 已提交
74

C
CyC2018 已提交
75
### 2. 节点类型
C
CyC2018 已提交
76

C
CyC2018 已提交
77 78 79
- 永久节点:不会因为会话结束或者超时而消失;
- 临时节点:如果会话结束或者超时就会消失;
- 有序节点:会在节点名的后面加一个数字后缀,并且是有序的,例如生成的有序节点为 /lock/node-0000000000,它的下一个有序节点则为 /lock/node-0000000001,以此类推。
C
CyC2018 已提交
80

C
CyC2018 已提交
81
### 3. 监听器
C
CyC2018 已提交
82

C
CyC2018 已提交
83
为一个节点注册监听器,在节点状态发生改变时,会给客户端发送消息。
C
CyC2018 已提交
84

C
CyC2018 已提交
85
### 4. 分布式锁实现
C
CyC2018 已提交
86

C
CyC2018 已提交
87 88 89 90
- 创建一个锁目录 /lock;
- 当一个客户端需要获取锁时,在 /lock 下创建临时的且有序的子节点;
-  客户端获取 /lock 下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁;否则监听自己的前一个子节点,获得子节点的变更通知后重复此步骤直至获得锁;
- 执行业务代码,完成后,删除对应的子节点。
C
CyC2018 已提交
91

C
CyC2018 已提交
92
### 5. 会话超时
C
CyC2018 已提交
93

C
CyC2018 已提交
94
如果一个已经获得锁的会话超时了,因为创建的是临时节点,所以该会话对应的临时节点会被删除,其它会话就可以获得锁了。可以看到,Zookeeper 分布式锁不会出现数据库的唯一索引实现的分布式锁释放锁失败问题。
C
CyC2018 已提交
95

C
CyC2018 已提交
96
### 6. 羊群效应
C
CyC2018 已提交
97

C
CyC2018 已提交
98
一个节点未获得锁,只需要监听自己的前一个子节点,这是因为如果监听所有的子节点,那么任意一个子节点状态改变,其它所有子节点都会收到通知(羊群效应),而我们只希望它的后一个子节点收到通知。
C
CyC2018 已提交
99

C
CyC2018 已提交
100 101
# 二、分布式事务

C
CyC2018 已提交
102
指事务的操作位于不同的节点上,需要保证事务的 AICD 特性。
C
CyC2018 已提交
103

C
CyC2018 已提交
104
例如在下单场景下,库存和订单如果不在同一个节点上,就涉及分布式事务。
C
CyC2018 已提交
105

C
CyC2018 已提交
106
## 本地消息表
C
CyC2018 已提交
107

C
CyC2018 已提交
108
本地消息表与业务数据表处于同一个数据库中,这样就能利用本地事务来保证在对这两个表的操作满足事务特性,并且使用了消息队列来保证最终一致性。
C
CyC2018 已提交
109

C
CyC2018 已提交
110 111 112 113 114 115 116 117
1. 在分布式事务操作的一方完成写业务数据的操作之后向本地消息表发送一个消息,本地事务能保证这个消息一定会被写入本地消息表中。
2. 之后将本地消息表中的消息转发到 Kafka 等消息队列中,如果转发成功则将消息从本地消息表中删除,否则继续重新转发。
3. 在分布式事务操作的另一方从消息队列中读取一个消息,并执行消息中的操作。

<div align="center"> <img src="../pics//e3bf5de4-ab1e-4a9b-896d-4b0ad7e9220a.jpg"/> </div><br>

## 2PC

C
CyC2018 已提交
118
两阶段提交(Two-phase Commit,2PC),通过引入协调者(Coordinator)来协调参与者的行为,并最终决定这些参与者是否要真正执行事务。
C
CyC2018 已提交
119 120 121

### 1. 运行过程

C
CyC2018 已提交
122
#### 1.1 准备阶段
C
CyC2018 已提交
123 124 125

协调者询问参与者事务是否执行成功,参与者发回事务执行结果。

C
CyC2018 已提交
126
<div align="center"> <img src="../pics//04f41228-375d-4b7d-bfef-738c5a7c8f07.jpg"/> </div><br>
C
CyC2018 已提交
127

C
CyC2018 已提交
128
#### 1.2 提交阶段
C
CyC2018 已提交
129 130 131 132 133

如果事务在每个参与者上都执行成功,事务协调者发送通知让参与者提交事务;否则,协调者发送通知让参与者回滚事务。

需要注意的是,在准备阶段,参与者执行了事务,但是还未提交。只有在提交阶段接收到协调者发来的通知后,才进行提交或者回滚。

C
CyC2018 已提交
134 135 136
<div align="center"> <img src="../pics//2991c772-fb1c-4051-a9c7-932b68e76bd7.jpg"/> </div><br>

### 2. 存在的问题
C
CyC2018 已提交
137

C
CyC2018 已提交
138
#### 2.1 同步阻塞
C
CyC2018 已提交
139 140 141

所有事务参与者在等待其它参与者响应的时候都处于同步阻塞状态,无法进行其它操作。

C
CyC2018 已提交
142
#### 2.2 单点问题
C
CyC2018 已提交
143

C
CyC2018 已提交
144
协调者在 2PC 中起到非常大的作用,发生故障将会造成很大影响。特别是在阶段二发生故障,所有参与者会一直等待状态,无法完成其它操作。
C
CyC2018 已提交
145

C
CyC2018 已提交
146
#### 2.3 数据不一致
C
CyC2018 已提交
147 148 149

在阶段二,如果协调者只发送了部分 Commit 消息,此时网络发生异常,那么只有部分参与者接收到 Commit 消息,也就是说只有部分参与者提交了事务,使得系统数据不一致。

C
CyC2018 已提交
150
#### 2.4 太过保守
C
CyC2018 已提交
151 152 153

任意一个节点失败就会导致整个事务失败,没有完善的容错机制。

C
CyC2018 已提交
154 155 156 157 158 159 160 161
# 三、CAP

分布式系统不可能同时满足一致性(C:Consistency)、可用性(A:Availability)和分区容忍性(P:Partition Tolerance),最多只能同时满足其中两项。

<div align="center"> <img src="../pics//f1109d04-3c67-48a3-9963-2c475f94e175.jpg"/> </div><br>

## 一致性

C
CyC2018 已提交
162
一致性指的是多个数据副本是否能保持一致的特性,在一致性的条件下,系统在执行数据更新操作之后能够从一致性状态转移到另一个一致性状态。
C
CyC2018 已提交
163 164 165 166 167 168 169

对系统的一个数据更新成功之后,如果所有用户都能够读取到最新的值,该系统就被认为具有强一致性。

## 可用性

可用性指分布式系统在面对各种异常时可以提供正常服务的能力,可以用系统可用时间占总时间的比值来衡量,4 个 9 的可用性表示系统 99.99% 的时间是可用的。

C
CyC2018 已提交
170
在可用性条件下,要求系统提供的服务一直处于可用的状态,对于用户的每一个操,请求总是能够在有限的时间内返回结果。
C
CyC2018 已提交
171 172 173 174 175 176 177 178 179

## 分区容忍性

网络分区指分布式系统中的节点被划分为多个区域,每个区域内部可以通信,但是区域之间无法通信。

在分区容忍性条件下,分布式系统在遇到任何网络分区故障的时候,仍然需要能对外提供一致性和可用性的服务,除非是整个网络环境都发生了故障。

## 权衡

C
CyC2018 已提交
180
在分布式系统中,分区容忍性必不可少,因为需要总是假设网络是不可靠的。因此,CAP 理论实际上是要在可用性和一致性之间做权衡。
C
CyC2018 已提交
181

C
CyC2018 已提交
182
可用性和一致性往往是冲突的,很难使它们同时满足。在多个节点之间进行数据同步时,
C
CyC2018 已提交
183

C
CyC2018 已提交
184 185
- 为了保证一致性(CP),就需要让所有节点下线成为不可用的状态,等待同步完成;
- 为了保证可用性(AP),在同步过程中允许读取所有节点的数据,但是数据可能不一致。
C
CyC2018 已提交
186 187 188 189 190 191 192

<div align="center"> <img src="../pics//0b587744-c0a8-46f2-8d72-e8f070d67b4b.jpg"/> </div><br>

# 四、BASE

BASE 是基本可用(Basically Available)、软状态(Soft State)和最终一致性(Eventually Consistent)三个短语的缩写。

C
CyC2018 已提交
193
BASE 理论是对 CAP 中一致性和可用性权衡的结果,它的核心思想是:即使无法做到强一致性,但每个应用都可以根据自身业务特点,采用适当的方式来使系统达到最终一致性。
C
CyC2018 已提交
194 195 196 197 198 199 200 201 202 203 204

<div align="center"> <img src="../pics//bc603930-d74d-4499-a3e7-2d740fc07f33.png"/> </div><br>

## 基本可用

指分布式系统在出现故障的时候,保证核心可用,允许损失部分可用性。

例如,电商在做促销时,为了保证购物系统的稳定性,部分消费者可能会被引导到一个降级的页面。

## 软状态

C
CyC2018 已提交
205
指允许系统中的数据存在中间状态,并认为该中间状态不会影响系统整体可用性,即允许系统不同节点的数据副本之间进行同步的过程存在时延。
C
CyC2018 已提交
206 207 208 209 210 211 212 213 214 215

## 最终一致性

最终一致性强调的是系统中所有的数据副本,在经过一段时间的同步后,最终能达到一致的状态。

ACID 要求强一致性,通常运用在传统的数据库系统上。而 BASE 要求最终一致性,通过牺牲强一致性来达到可用性,通常运用在大型分布式系统中。

在实际的分布式场景中,不同业务单元和组件对一致性的要求是不同的,因此 ACID 和 BASE 往往会结合在一起使用。

# 五、Paxos
C
CyC2018 已提交
216 217 218 219 220 221 222 223 224

用于达成共识性问题,即对多个节点产生的值,该算法能保证只选出唯一一个值。

主要有三类节点:

- 提议者(Proposer):提议一个值;
- 接受者(Acceptor):对每个提议进行投票;
- 告知者(Learner):被告知投票的结果,不参与投票过程。

C
CyC2018 已提交
225
<div align="center"> <img src="../pics//b988877c-0f0a-4593-916d-de2081320628.jpg"/> </div><br>
C
CyC2018 已提交
226 227 228 229 230 231 232

## 执行过程

规定一个提议包含两个字段:[n, v],其中 n 为序号(具有唯一性),v 为提议值。

下图演示了两个 Proposer 和三个 Acceptor 的系统中运行该算法的初始过程,每个 Proposer 都会向所有 Acceptor 发送提议请求。

C
CyC2018 已提交
233
<div align="center"> <img src="../pics//1a9977e4-2f5c-49a6-aec9-f3027c9f46a7.png"/> </div><br>
C
CyC2018 已提交
234 235 236 237 238

当 Acceptor 接收到一个提议请求,包含的提议为 [n1, v1],并且之前还未接收过提议请求,那么发送一个提议响应,设置当前接收到的提议为 [n1, v1],并且保证以后不会再接受序号小于 n1 的提议。

如下图,Acceptor X 在收到 [n=2, v=8] 的提议请求时,由于之前没有接收过提议,因此就发送一个 [no previous] 的提议响应,设置当前接收到的提议为 [n=2, v=8],并且保证以后不会再接受序号小于 2 的提议。其它的 Acceptor 类似。

C
CyC2018 已提交
239
<div align="center"> <img src="../pics//fb44307f-8e98-4ff7-a918-31dacfa564b4.jpg"/> </div><br>
C
CyC2018 已提交
240 241 242 243 244

如果 Acceptor 接收到一个提议请求,包含的提议为 [n2, v2],并且之前已经接收过提议 [n1, v1]。如果 n1 > n2,那么就丢弃该提议请求;否则,发送提议响应,该提议响应包含之前已经接收过的提议 [n1, v1],设置当前接收到的提议为 [n2, v2],并且保证以后不会再接受序号小于 n2 的提议。

如下图,Acceptor Z 收到 Proposer A 发来的 [n=2, v=8] 的提议请求,由于之前已经接收过 [n=4, v=5] 的提议,并且 n > 2,因此就抛弃该提议请求;Acceptor X 收到 Proposer B 发来的 [n=4, v=5] 的提议请求,因为之前接收到的提议为 [n=2, v=8],并且 2 <= 4,因此就发送 [n=2, v=8] 的提议响应,设置当前接收到的提议为 [n=4, v=5],并且保证以后不会再接受序号小于 4 的提议。Acceptor Y 类似。

C
CyC2018 已提交
245
<div align="center"> <img src="../pics//2bcc58ad-bf7f-485c-89b5-e7cafc211ce2.jpg"/> </div><br>
C
CyC2018 已提交
246 247 248 249 250 251 252

当一个 Proposer 接收到超过一半 Acceptor 的提议响应时,就可以发送接受请求。

Proposer A 接收到两个提议响应之后,就发送 [n=2, v=8] 接受请求。该接受请求会被所有 Acceptor 丢弃,因为此时所有 Acceptor 都保证不接受序号小于 4 的提议。

Proposer B 过后也收到了两个提议响应,因此也开始发送接受请求。需要注意的是,接受请求的 v 需要取它收到的最大 v 值,也就是 8。因此它发送 [n=4, v=8] 的接受请求。

C
CyC2018 已提交
253
<div align="center"> <img src="../pics//9b838aee-0996-44a5-9b0f-3d1e3e2f5100.png"/> </div><br>
C
CyC2018 已提交
254 255 256

Acceptor 接收到接受请求时,如果序号大于等于该 Acceptor 承诺的最小序号,那么就发送通知给所有的 Learner。当 Learner 发现有大多数的 Acceptor 接收了某个提议,那么该提议的提议值就被 Paxos 选择出来。

C
CyC2018 已提交
257
<div align="center"> <img src="../pics//bf667594-bb4b-4634-bf9b-0596a45415ba.jpg"/> </div><br>
C
CyC2018 已提交
258 259 260

## 约束条件

C
CyC2018 已提交
261
### 1\. 正确性
C
CyC2018 已提交
262 263 264 265 266

指只有一个提议值会生效。

因为 Paxos 协议要求每个生效的提议被多数 Acceptor 接收,并且 Acceptor 不会接受两个不同的提议,因此可以保证正确性。

C
CyC2018 已提交
267
### 2\. 可终止性
C
CyC2018 已提交
268 269 270 271 272

指最后总会有一个提议生效。

Paxos 协议能够让 Proposer 发送的提议朝着能被大多数 Acceptor 接受的那个提议靠拢,因此能够保证可终止性。

C
CyC2018 已提交
273
# 六、Raft
C
CyC2018 已提交
274

C
CyC2018 已提交
275
Raft 也是分布式一致性协议,主要是用来竞选主节点。
C
CyC2018 已提交
276 277 278 279 280

## 单个 Candidate 的竞选

有三种节点:Follower、Candidate 和 Leader。Leader 会周期性的发送心跳包给 Follower。每个 Follower 都设置了一个随机的竞选超时时间,一般为 150ms\~300ms,如果在这个时间内没有收到 Leader 的心跳包,就会变成 Candidate,进入竞选阶段。

C
CyC2018 已提交
281
- 下图展示一个分布式系统的最初阶段,此时只有 Follower 没有 Leader。Node A 等待一个随机的竞选超时时间之后,没收到 Leader 发来的心跳包,因此进入竞选阶段。
C
CyC2018 已提交
282

C
CyC2018 已提交
283
<div align="center"> <img src="../pics//111521118015898.gif"/> </div><br>
C
CyC2018 已提交
284

C
CyC2018 已提交
285
- 此时 Node A 发送投票请求给其它所有节点。
C
CyC2018 已提交
286

C
CyC2018 已提交
287
<div align="center"> <img src="../pics//111521118445538.gif"/> </div><br>
C
CyC2018 已提交
288

C
CyC2018 已提交
289
- 其它节点会对请求进行回复,如果超过一半的节点回复了,那么该 Candidate 就会变成 Leader。
C
CyC2018 已提交
290

C
CyC2018 已提交
291
<div align="center"> <img src="../pics//111521118483039.gif"/> </div><br>
C
CyC2018 已提交
292

C
CyC2018 已提交
293
- 之后 Leader 会周期性地发送心跳包给 Follower,Follower 接收到心跳包,会重新开始计时。
C
CyC2018 已提交
294

C
CyC2018 已提交
295
<div align="center"> <img src="../pics//111521118640738.gif"/> </div><br>
C
CyC2018 已提交
296 297 298

## 多个 Candidate 竞选

C
CyC2018 已提交
299
- 如果有多个 Follower 成为 Candidate,并且所获得票数相同,那么就需要重新开始投票。例如下图中 Node B 和 Node D 都获得两票,需要重新开始投票。
C
CyC2018 已提交
300

C
CyC2018 已提交
301
<div align="center"> <img src="../pics//111521119203347.gif"/> </div><br>
C
CyC2018 已提交
302

C
CyC2018 已提交
303
- 由于每个节点设置的随机竞选超时时间不同,因此下一次再次出现多个 Candidate 并获得同样票数的概率很低。
C
CyC2018 已提交
304

C
CyC2018 已提交
305
<div align="center"> <img src="../pics//111521119368714.gif"/> </div><br>
C
CyC2018 已提交
306

C
CyC2018 已提交
307
## 数据同步
C
CyC2018 已提交
308

C
CyC2018 已提交
309
- 来自客户端的修改都会被传入 Leader。注意该修改还未被提交,只是写入日志中。
C
CyC2018 已提交
310

C
CyC2018 已提交
311
<div align="center"> <img src="../pics//7.gif"/> </div><br>
C
CyC2018 已提交
312

C
CyC2018 已提交
313
- Leader 会把修改复制到所有 Follower。
C
CyC2018 已提交
314

C
CyC2018 已提交
315
<div align="center"> <img src="../pics//9.gif"/> </div><br>
C
CyC2018 已提交
316

C
CyC2018 已提交
317
- Leader 会等待大多数的 Follower 也进行了修改,然后才将修改提交。
C
CyC2018 已提交
318

C
CyC2018 已提交
319
<div align="center"> <img src="../pics//10.gif"/> </div><br>
C
CyC2018 已提交
320

C
CyC2018 已提交
321
- 此时 Leader 会通知的所有 Follower 让它们也提交修改,此时所有节点的值达成一致。
C
CyC2018 已提交
322

C
CyC2018 已提交
323
<div align="center"> <img src="../pics//11.gif"/> </div><br>
C
CyC2018 已提交
324

C
CyC2018 已提交
325
# 参考
C
CyC2018 已提交
326

C
CyC2018 已提交
327 328 329 330
- 倪超. 从 Paxos 到 ZooKeeper : 分布式一致性原理与实践 [M]. 电子工业出版社, 2015.
- [Distributed locks with Redis](https://redis.io/topics/distlock)
- [浅谈分布式锁](http://www.linkedkeeper.com/detail/blog.action?bid=1023)
- [基于 Zookeeper 的分布式锁](http://www.dengshenyu.com/java/%E5%88%86%E5%B8%83%E5%BC%8F%E7%B3%BB%E7%BB%9F/2017/10/23/zookeeper-distributed-lock.html)
C
CyC2018 已提交
331
- [Raft: Understandable Distributed Consensus](http://thesecretlivesofdata.com/raft)
C
CyC2018 已提交
332 333 334 335 336 337
- [聊聊分布式事务,再说说解决方案](https://www.cnblogs.com/savorboard/p/distributed-system-transaction-consistency.html)
- [分布式系统的事务处理](https://coolshell.cn/articles/10910.html)
- [深入理解分布式事务](https://juejin.im/entry/577c6f220a2b5800573492be)
- [What is CAP theorem in distributed database system?](http://www.colooshiki.com/index.php/2017/04/20/what-is-cap-theorem-in-distributed-database-system/)
- [NEAT ALGORITHMS - PAXOS](http://harry.me/blog/2014/12/27/neat-algorithms-paxos/)
- [Paxos By Example](https://angus.nyc/2012/paxos-by-example/)
C
CyC2018 已提交
338