大数据-Zookeeper(二)
HDFS HA方案
ZooKeeper监听器
关于ZooKeeper监听器有三个重要的逻辑:
-
注册:客户端向ZooKeeper集群注册监听器
-
监听事件:监听器负责监听特定的事件
-
回调函数:当监听器监听到事件的发生后,调用注册监听器时定义的回调函数
HDFS HA原理
-
在Hadoop 1.x版本,HDFS集群的NameNode一直存在单点故障问题:
-
集群只存在一个NameNode节点,它维护了HDFS所有的元数据信息
-
当该节点所在服务器宕机或者服务不可用,整个HDFS集群处于不可用状态
-
-
Hadoop 2.x版本提出了高可用 (High Availability, HA) 解决方案
①元数据同步
-
在同一个HDFS集群,运行两个互为主备的NameNode节点。
-
一台为主Namenode节点,处于Active状态,一台为备NameNode节点,处于Standby状态。
-
其中只有Active NameNode对外提供读写服务,Standby NameNode会根据Active NameNode的状态变化,在必要时切换成Active状态。
-
JournalNode集群
-
在主备切换过程中,新的Active NameNode必须确保与原Active NamNode元数据同步完成,才能对外提供服务
-
所以用JournalNode集群作为共享存储系统;
-
当客户端对HDFS做操作,会在Active NameNode中edits.log文件中作日志记录,同时日志记录也会写入JournalNode集群;负责存储HDFS新产生的元数据
-
当有新数据写入JournalNode集群时,Standby NameNode能监听到此情况,将新数据同步过来
-
Active NameNode(写入)和Standby NameNode(读取)实现元数据同步
-
另外,所有datanode会向两个主备namenode做block report
-
②主备切换
-
ZKFC涉及角色
-
每个NameNode节点上各有一个ZKFC进程
-
ZKFC即ZKFailoverController,作为独立进程存在,负责控制NameNode的主备切换
-
ZKFC会监控NameNode的健康状况,当发现Active NameNode异常时,通过Zookeeper集群进行namenode主备选举,完成Active和Standby状态的切换
-
ZKFC在启动时,同时会初始化HealthMonitor和ActiveStandbyElector服务
-
ZKFC同时会向HealthMonitor和ActiveStandbyElector注册相应的回调方法(如上图的①回调、②回调)
-
HealthMonitor定时调用NameNode的HAServiceProtocol RPC接口(monitorHealth和getServiceStatus),监控NameNode的健康状态,并向ZKFC反馈
-
ActiveStandbyElector接收ZKFC的选举请求,通过Zookeeper自动完成namenode主备选举
-
选举完成后回调ZKFC的主备切换方法对NameNode进行Active和Standby状态的切换
-
-
主备选举过程:
-
启动两个NameNode、ZKFC
-
两个ZKFC通过各自ActiveStandbyElector发起NameNode的主备选举,这个过程利用Zookeeper的写一致性和临时节点机制实现
-
当发起一次主备选举时,ActiveStandbyElector会尝试在Zookeeper创建临时节点
/hadoop-ha/${dfs.nameservices}/ActiveStandbyElectorLock,Zookeeper的写一致性保证最终只会有一个ActiveStandbyElector创建成功 -
ActiveStandbyElector从ZooKeeper获得选举结果
-
创建成功的 ActiveStandbyElector回调ZKFC的回调方法②,将对应的NameNode切换为Active NameNode状态
-
而创建失败的ActiveStandbyElector回调ZKFC的回调方法②,将对应的NameNode切换为Standby NameNode状态
-
不管是否选举成功,所有ActiveStandbyElector都会在临时节点ActiveStandbyElectorLock上注册一个Watcher监听器,来监听这个节点的状态变化事件
-
如果Active NameNode对应的HealthMonitor检测到NameNode状态异常时,通知对应ZKFC
-
ZKFC会调用 ActiveStandbyElector 方法,删除在Zookeeper上创建的临时节点ActiveStandbyElectorLock(或者ActvieStandbyElector与ZooKeeper的session断开,临时节点也会被删除,但有可能此时原Active NameNode仍然是active状态)
-
此时,Standby NameNode的ActiveStandbyElector注册的Watcher就会监听到此节点的 NodeDeleted事件。
-
收到这个事件后,此ActiveStandbyElector发起主备选举,成功创建临时节点ActiveStandbyElectorLock,如果创建成功,则Standby NameNode被选举为Active NameNode(过程同上)
如何防止脑裂
-
脑裂
在分布式系统中双主现象又称为脑裂,由于Zookeeper的“假死”、长时间的垃圾回收或其它原因都可能导致双Active NameNode现象,此时两个NameNode都可以对外提供服务,无法保证数据一致性
-
隔离
对于生产环境,这种情况的出现是毁灭性的,必须通过自带的隔离(Fencing)机制预防此类情况
-
原理
-
ActiveStandbyElector成功创建ActiveStandbyElectorLock临时节点后,会创建另一个ActiveBreadCrumb持久节点
-
ActiveBreadCrumb持久节点保存了Active NameNode的地址信息
-
当Active NameNode在正常的状态下断开Zookeeper Session,会一并删除临时节点ActiveStandbyElectorLock、持久节点ActiveBreadCrumb
-
但是如果ActiveStandbyElector在异常的状态下关闭Zookeeper Session,那么持久节点ActiveBreadCrumb会保留下来(此时有可能由于active NameNode与ZooKeeper通信不畅导致,所以此NameNode还处于active状态)
-
当另一个NameNode要由standy变成active状态时,会发现上一个Active NameNode遗留下来的ActiveBreadCrumb节点,那么会回调ZKFailoverController的方法对旧的Active NameNode进行fencing
①首先ZKFC会尝试调用旧Active NameNode的HAServiceProtocol RPC接口的transitionToStandby方法,看能否将其状态切换为Standby
②如果transitionToStandby方法切换状态失败,那么就需要执行Hadoop自带的隔离措施,Hadoop目前主要提供两种隔离措施: sshfence:SSH to the Active NameNode and kill the process; shellfence:run an arbitrary shell command to fence the Active NameNode
③只有成功地fencing之后,选主成功的ActiveStandbyElector才会回调ZKFC的becomeActive方法transitionToActive将对应的NameNode切换为Active,开始对外提供服务。
-
ZooKeeper之攘其外
ZooKeeper集群架构图
-
ZooKeeper集群也是主从架构
-
主角色:leader
-
从角色:follower或observer;统称为learner
-
客户端与ZK集群交互,主要分读写两大类操作
读操作
-
常见的读取操作,如ls /查看目录;get /zktest查询ZNode数据
-
读操作
-
客户端先与某个ZK服务器建立Session
-
然后,直接从此ZK服务器读取数据,并返回客户端即可
-
关闭Session
-
写操作
客户端写操作
-
①客户端向zk集群写入数据,如create /kkb;与一个follower建立Session连接,从节点follower01
-
②follower将写请求转发给leader
-
③leader收到消息后,发出proposal提案(创建/kkb),每个follower先记录下要创建/kkb
-
④超过半数quorum(包括leader自己)同意提案,则leader提交commit提案,leader本地创建/kkb节点ZNode
-
⑤leader通知所有follower,也commit提案;follower各自在本地创建/kkb
-
⑥follower01响应client
ZooKeeper之安其内
架构问题
-
leader很重要?
-
如果没有leader怎么办?
-
开始选举新的leader
-
-
ZooKeeper服务器四种状态:
-
looking:服务器处于寻找Leader群首的状态
-
leading:服务器作为群首时的状态
-
following:服务器作为follower跟随者时的状态
-
observing:服务器作为观察者时的状态
-
leader选举分两种情况
-
全新集群leader选举
-
非全新集群leader选举
全新集群leader选举
-
以3台机器组成的ZooKeeper集群为例
-
原则:集群中过半数(多数派quorum)Server启动后,才能选举出Leader;
-
此处quorum数是多少?3/2+1=2
-
即quorum=集群服务器数除以2,再加1
-
-
理解leader选举前,先了解几个概念
-
选举过程中,每个server需发出投票;投票信息vote信息结构为(sid, zxid)
全新集群,server1~3初始投票信息分别为:
server1 -> (1, 0) server2 -> (2, 0) server3 -> (3, 0)
-
leader选举公式:
server1 vote信息 (sid1,zxid1)
server2 vote信息 (sid2,zxid2)
①zxid大的server胜出;
②若zxid相等,再根据判断sid判断,sid大的胜出
-
选举leader流程:
假设按照ZK1、ZK2、ZK3的依次启动
-
启动ZK1后,投票给自己,vote信息(1,0),没有过半数,选举不出leader
-
再启动ZK2;ZK1和ZK2票投给自己及其他服务器;ZK1的投票为(1, 0),ZK2的投票为(2, 0)
-
处理投票。每个server将收到的多个投票做处理
-
如ZK1上:ZK1投给自己的票(1,0)与ZK2传过来的票(2,0)比较;
-
利用leader选举公式,因为zxid都为0,相等;所以判断sid最大值;2>1;(2,0)胜出;ZK1更新自己的投票为(2, 0)
-
ZK2也是如此逻辑,ZK2更新自己的投票为(2,0)
-
-
再次发起投票
-
ZK1、ZK2上的投票都是(2,0)
-
发起投票后,ZK1上有一个自己的票(2,0)和一票来自ZK2的票(2,0),这两票都选ZK2为leader
-
ZK2上有一个自己的票(2,0)和一票来自ZK1的票(2,0),这两票都选ZK2为leader
-
统计投票。server统计投票信息,是否有半数server投同一个服务器为leader;
-
ZK2当选2票;多数
-
-
改变服务器状态。确定Leader后,各服务器更新自己的状态
-
更改ZK2状态从looking到leading,为Leader
-
更改ZK1状态从looking到following,为Follower
-
-
-
当K3启动时,发现已有Leader,不再选举,直接从LOOKING改为FOLLOWING
非全新集群leader选举
ZAB算法
仲裁quorum
-
什么是仲裁quorum?
-
发起proposal时,只要多数派同意,即可生效
-
-
为什么要仲裁?
-
多数据派不需要所有的服务器都响应,proposal就能生效
-
且能提高集群的响应速度
-
-
quorum数如何选择?
-
集群节点数 / 2 + 1
-
如3节点的集群:quorum数=3/2+1=2
-
网络分区、脑裂
-
网络分区:网络通信故障,集群被分成了2部分
-
脑裂:
-
原leader处于一个分区;
-
另外一个分区选举出新的leader
-
集群出现2个leader
-
ZAB算法
PAXOS算法 -> RAFT算法 -> ZAB算法
-
ZAB与RAFT相似,区别如下:
1、zab心跳从follower到leader;raft从leader到follower
2、zab任期叫epoch;raft叫term
-
一下以RAFT算法动图为例,分析ZAB算法
ZooKeeper工作原理
写操作流程图
-
在Client向Follwer发出一个写的请求
-
Follwer把请求发送给Leader
-
Leader接收到以后开始发起投票并通知Follwer进行投票
-
Follwer把投票结果发送给Leader
-
Leader将结果汇总,如果多数同意,则开始写入同时把写入操作通知给Follwer,然后commit
-
Follwer把请求结果返回给Client
ZooKeeper状态同步
完成leader选举后,zk就进入ZooKeeper之间状态同步过程
-
leader构建NEWLEADER封包,包含leader中最大的zxid值;广播给其它follower
-
follower收到后,如果自己的最大zxid小于leader的,则需要与leader状态同步;否则不需要
-
leader给需要同步的每个follower创建LearnerHandler线程,负责数据同步请求
-
leader主线程等待LearnHandler线程处理结果
-
只有多数follower完成同步,leader才开始对外服务,响应写请求
-
LearnerHandler线程处理逻辑
-
接收follower封包FOLLOWERINFO,包含此follower最大zxid(代称f-max-zxid)
-
f-max-zxid与leader最大zxid(代称l-max-zxid)比较
-
若相等,说明当前follower是最新的
-
另外,若在判断期间,有没有新提交的proposal
-
如果有,那么会发送DIFF封包将有差异的数据同步过去.同时将follower没有的数据逐个发送COMMIT封包给follower要求记录下来.
-
如果follower数据id更大,那么会发送TRUNC封包告知截除多余数据.
-
如果这一阶段内没有提交的提议值,直接发送SNAP封包将快照同步发送给follower.
-
-
以上消息完毕之后,发送UPTODATE封包告知follower当前数据就是最新的了
-
再次发送NEWLEADER封包宣称自己是leader,等待follower的响应.
-