pull/4/head
liruyu 2 years ago
parent c6316bdef5
commit b0e051e6f2

@ -2046,6 +2046,138 @@ private int getMaxReconsumeTimes() {
**下载地址:**http://www.apache.org/dist/zookeeper/
## 节点角色
### Leader
- 负责处理客户端发送的`读、写事务请求`。这里的事务请求可以理解这个请求具有事务的 ACID 特性
- 同步`写事务请求`给其他节点,且需要保证事务的顺序性
- 状态为 LEADING
### Follower
- 负责处理客户端发送的读请求
- 转发写事务请求给 Leader
- 参与 Leader 的选举
- 状态为 FOLLOWING
### Observer
和 Follower 一样,唯一不同的是,不参与 Leader 的选举,且状态为 OBSERING。可以用来线性扩展读的 QPS。
## 核心流程设计
### 启动阶段 Leader选举
Zookeeper 刚启动的时候,多个节点需要找出一个 Leader。怎么找呢就是用`投票`。比如集群中有两个节点A 和 B原理图如下所示
![启动阶段Leader选举](images/Middleware/启动阶段Leader选举.png)
- 节点 A 先`投票给自己`,投票信息包含`节点 idSID)` 和一个 `ZXID`,如 1,0。SID 是配置好的且唯一ZXID 是唯一的递增编号
- 节点 B 先`投票给自己`投票信息为2,0
- 然后节点 A 和 B 将自己的投票信息`投票`给集群中`所有节点`
- 节点 A 收到节点 B 的投票信息后,`检查`下节点 B 的状态是否是`本轮投票`,以及是否是`正在选举(LOOKING)`的状态
- 投票 PK节点 A 会将自己的投票和别人的投票进行 PK如果别的节点发过来的 ZXID 较大,则把自己的投票信息`更新`为别的节点发过来的投票信息,**如果 ZXID 相等,则比较 SID**。这里节点 A 和 节点 B 的 ZXID 相同SID 的话,节点 B 要大些,所以节点 A 更新投票信息为20然后将投票信息`再次`发送出去。而节点 B `不需要更新`投票信息,但是下一轮还需要再次将投票发出去。这个时候节点 A 的投票信息为20如下图所示
![启动阶段Leader选举-阶段信息](images/Middleware/启动阶段Leader选举-阶段信息.png)
- 统计投票:每一轮投票,都会统计每台节点收到的投票信息,判断是否有`过半的节点`收到了`相同`的投票信息。节点 A 和 节点 B 收到的投票信息都为20且数量来说大于一半节点的数量所以将节点 B 选出来作为 Leader
- 更新节点状态:节点 A 作为 `Follower`,更新状态为 FOLLOWING节点 B 作为 `Leader`,更新状态为 LEADING
### 运行期间Leader宕机处理
在 Zookeeper 运行期间Leader 会一直保持为 LEADING 状态,直到 Leader 宕机了,这个时候就要重新选 Leader而选举过程和启动阶段的选举过程基本一致。需要注意的点
- 剩下的 Follower 进行选举Observer 不参与选举
- 投票信息中的 zxid 用的是本地磁盘日志文件中的。如果这个节点上的 zxid 较大,就会被当选为 Leader。如果 Follower 的 zxid 都相同,则 Follower 的节点 id 较大的会被选为 Leader
### 节点之间同步数据流程
不同的客户端可以分别连接到主节点或备用节点。而客户端发送读写请求时是不知道自己连的是Leader 还是 Follower**如果客户端连的是主节点**,发送了写请求,那么 Leader 执行 2PC两阶段提交协议同步给其他 Follower 和 Observer 就可以了。但是**如果客户端连的是 Follower**,发送了写请求,那么 Follower 会将写请求转发给 Leader然后 Leader 再进行 2PC 同步数据给 Follower。两阶段提交协议
- **第一阶段**Leader 先发送 proposal 给 FollowerFollower 发送 ack 响应给 Leader。如果收到的 ack 过半,则进入下一阶段
- **第二阶段** Leader 从磁盘日志文件中加载数据到内存中Leader 发送 commit 消息给 FollowerFollower 加载数据到内存中
我们来看下 Leader 同步数据的流程:
![Leader同步数据的流程](images/Middleware/Leader同步数据的流程.png)
- ① 客户端发送写事务请求
- ② Leader 收到写请求后,转化为一个 "proposal01zxid1" 事务请求,存到磁盘日志文件
- ③ 发送 proposal 给其他 Follower
- ④ Follower 收到 proposal 后Follower 写磁盘日志文件
接着我们看下 Follower 收到 Leader 发送的 proposal 事务请求后,怎么处理的:
![Follower收到事务请求处理流程](images/Middleware/Follower收到事务请求处理流程.png)
- ⑤ Follower 返回 ack 给 Leader
- ⑥ Leader 收到超过一半的 ack进行下一阶段
- ⑦ Leader 将磁盘中的日志文件的 proposal 加载到 znode 内存数据结构中
- ⑧ Leader 发送 commit 消息给所有 Follower 和 Observer
- ⑨ Follower 收到 commit 消息后,将 磁盘中数据加载到 znode 内存数据结构中
现在Leader和Follower的数据都是在内存数据中的且是一致的客户端从Leader和Follower读到的数据都是一致的。
### ZAB顺序一致性原理
Leader 发送 proposal 时,其实会为每个 Follower 创建一个队列,都往各自的队列中发送 proposal。如下图所示是 Zookeeper 的消息广播流程:
![Zookeeper的消息广播流程](images/Middleware/Zookeeper的消息广播流程.png)
客户端发送了三条写事务请求,对应的 proposal 为
```properties
proposal01:zxid1
proposal02:zxid2
proposal03:zxid3
```
Leader 收到请求后,依次放到队列中,然后 Follower 依次从队列中获取请求,这样就保证了数据的顺序性。
### Zookeeper是否是强一致性
> 官方定义:顺序一致性。
不保证强一致性,为什么呢?
因为 Leader 再发送 commit 消息给所有 Follower 和 Observer 后,它们并不是同时完成 commit 的。比如因为`网络原因`,不同节点收到的 commit 较晚,那么提交的时间也较晚,就会出现多个节点的数据不一致,但是经过短暂的时间后,所有节点都 commit 后,数据就保持同步了。另外 Zookeeper 支持强一致性,就是手动调用 sync 方法来保证所有节点都 commit 才算成功。
这里有个问题:如果某个节点 commit 失败,那么 Leader 会进行重试吗?如何保证数据的一致性?
### Leader 宕机数据丢失问题
**第一种情况**:假设 Leader 已经将消息写入了本地磁盘,但是还没有发送 proposal 给 Follower这个时候 Leader 宕机了。那就需要选新的 Leader新 Leader 发送 proposal 的时候,包含的 zxid 自增规律会发生一次变化:
- zxid 的高 32 位自增 1 一次,高 32 位代表 Leader 的版本号。
- zxid 的低 32 位自增 1后续还是继续保持自增长。
当老 Leader 恢复后,会转成 FollowerLeader 发送最新的 proposal 给它时,发现本地磁盘的 proposal 的 zxid 的高 32 位小于新 Leader 发送的 proposal就丢弃自己的 proposal。
**第二种情况**:如果 Leader 成功发送了 commit 消息给 Follower但是所有或者部分 Follower 还没来得及 commit 这个 proposal也就是加载磁盘中的 proposal 到 内存中,这个时候 Leader 宕机了。
那么就需要选出磁盘日志中 zxid 最大的 Follower如果 zxid 相同,则比较节点 id节点 id 大的作为 Leader。
## ZK特性
Zookeeper主要靠其 **分布式数据一致性** 为集群提供 **分布式协调服务**,即指在集群的节点中进行可靠的消息传递,来协调集群的工作。主要具有如下特点:

Binary file not shown.

After

Width:  |  Height:  |  Size: 266 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 280 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 249 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 210 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 324 KiB

Loading…
Cancel
Save