jingjihui 发表于 2017-4-19 09:48:06

ZooKeeper 基础知识及安装配置

ZooKeeper 是什么?
  ZooKeeper 顾名思义 动物园管理员,他是拿来管大象(Hadoop) 、 蜜蜂(Hive) 、 小猪(Pig)  的管理员, Apache Hbase和 Apache Solr 以及LinkedIn sensei  等项目中都采用到了 Zookeeper。ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,ZooKeeper是以Fast Paxos算法为基础,实现同步服务,配置维护和命名服务等分布式应用。
ZooKeeper 如何工作?

  ZooKeeper是作为分布式应用建立更高层次的同步(synchronization)、配置管理 (configuration maintenance)、群组(groups)以及名称服务(naming)。在编程上,ZooKeeper设计很简单,所使用的数据模型风格很像文件系统的目录树结构,简单来说,有点类似windows中注册表的结构,有名称,有树节点,有Key(键)/Value(值)对的关系,可以看做一个树形结构的数据库,分布在不同的机器上做名称管理。
   Zookeeper分为2个部分:服务器端和客户端,客户端只连接到整个ZooKeeper服务的某个服务器上。客户端使用并维护一个TCP连接,通过这个连接发送请求、接受响应、获取观察的事件以及发送心跳。如果这个TCP连接中断,客户端将尝试连接到另外的ZooKeeper服务器。客户端第一次连接到ZooKeeper服务时,接受这个连接的 ZooKeeper服务器会为这个客户端建立一个会话。当这个客户端连接到另外的服务器时,这个会话会被新的服务器重新建立。
   启动Zookeeper服务器集群环境后,多个Zookeeper服务器在工作前会选举出一个Leader,在接下来的工作中这个被选举出来的Leader死了,而剩下的Zookeeper服务器会知道这个Leader死掉了,在活着的Zookeeper集群中会继续选出一个Leader,选举出leader的目的是为了可以在分布式的环境中保证数据的一致性。如图所示:
http://niaklq.bay.livefilestore.com/y1pbARJq1ijQRd1v-pIceq9GqFvcw6FjLE7a7A60fTl07AbpaOJcT8aZ7NLnwWtVnCA-injs7P8s9lp4GoUZiTjUq3hkhuiBPVq/zookeeper-blog-1.jpg?psid=1
  另外,ZooKeeper 支持watch(观察)的概念。客户端可以在每个znode结点上设置一个观察。如果被观察服务端的znode结点有变更,那么watch就会被触发,这个watch所属的客户端将接收到一个通知包被告知结点已经发生变化。若客户端和所连接的ZooKeeper服务器断开连接时,其他客户端也会收到一个通知,也就说一个Zookeeper服务器端可以对于多个客户端,当然也可以多个Zookeeper服务器端可以对于多个客户端,如图所示:
http://niaklq.bay.livefilestore.com/y1pIeYJau1gfAywPWxuBGKiLDdRjr9O2gRWs_IWlgbdgjNTh2ne_nC2bnlsu47cW5vPICFgY_6uC6uqtplg-eJ8iFY-cImbaiTB/zookeeper-blog-2.jpg?psid=1
 
 
ZooKeeper 安装配置
 
zookeeper的默认配置文件为zookeeper/conf/zoo_sample.cfg,需要将其修改为zoo.cfg。其中各配置项的含义,解释如下:
 
1.tickTime:CS通信心跳数
Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。tickTime以毫秒为单位。
tickTime=2000  
 
2.initLimit:LF初始通信时限
集群中的follower服务器(F)与leader服务器(L)之间初始连接时能容忍的最多心跳数(tickTime的数量)。
initLimit=5  
 
3.syncLimit:LF同步通信时限
集群中的follower服务器与leader服务器之间请求和应答之间能容忍的最多心跳数(tickTime的数量)。
syncLimit=2  
 
4.dataDir:数据文件目录
Zookeeper保存数据的目录,默认情况下,Zookeeper将写数据的日志文件也保存在这个目录里。
dataDir=/home/michael/opt/zookeeper/data  
 
5.dataLogDir:日志文件目录
Zookeeper保存日志文件的目录。
dataLogDir=/home/michael/opt/zookeeper/log  
 
6.clientPort:客户端连接端口
客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。
clientPort=2333  
 
7.服务器名称与地址:集群信息(服务器编号,服务器地址,LF通信端口,选举端口)
这个配置项的书写格式比较特殊,规则如下:
server.N=YYY:A:B  
 
其中N表示服务器编号,YYY表示服务器的IP地址,A为LF通信端口,表示该服务器与集群中的leader交换的信息的端口。B为选举端口,表示选举新leader时服务器间相互通信的端口(当leader挂掉时,其余服务器会相互通信,选择出新的leader)。一般来说,集群中每个服务器的A端口都是一样,每个服务器的B端口也是一样。但是当所采用的为伪集群时,IP地址都一样,只能时A端口和B端口不一样。
下面是一个非伪集群的例子:
server.0=233.34.9.144:2008:6008  
server.1=233.34.9.145:2008:6008  
server.2=233.34.9.146:2008:6008  
server.3=233.34.9.147:2008:6008  
下面是一个伪集群的例子:
server.0=127.0.0.1:2008:6008  
server.1=127.0.0.1:2007:6007  
server.2=127.0.0.1:2006:6006  
server.3=127.0.0.1:2005:6005  
ZooKeeper Standalone模式
 
将zookeeper-3.3.4/conf目录下面的 zoo_sample.cfg修改为zoo.cfg,配置文件内容如下所示:
 view plaincopy 



[*]tickTime=2000  
[*]dataDir=/home/hadoop/storage/zookeeper  
[*]clientPort=2181  
[*]initLimit=5  
[*]syncLimit=2  

  上面各个配置参数的含义也非常简单,引用如下所示:
 view plaincopy 



[*]tickTime —— the basic time unit in milliseconds used by ZooKeeper. It is used to do heartbeats and the minimum session timeout will be twice the tickTime.  
[*]dataDir —— the location to store the in-memory database snapshots and, unless specified otherwise, the transaction log of updates to the database.  
[*]clientPort —— the port to listen for client connections  

  下面启动ZooKeeper服务器进程:
 view plaincopy 



[*]cd zookeeper-3.3.4/  
[*]bin/zkServer.sh start  

  通过jps命令可以查看ZooKeeper服务器进程,名称为QuorumPeerMain。
在客户端连接ZooKeeper服务器,执行如下命令:
 view plaincopy 



[*]bin/zkCli.sh -server dynamic:2181  

  上面dynamic是我的主机名,如果在本机执行,则执行如下命令即可:
 view plaincopy 



[*]bin/zkCli.sh  

  客户端连接信息如下所示: 接着,可以使用help查看Zookeeper客户端可以使用的基本操作命令。
 
 
ZooKeeper Distributed模式
 
第一步:主机名称到IP地址映射配置
ZooKeeper集群中具有两个关键的角色:Leader和Follower。集群中所有的结点作为一个整体对分布式应用提供服务,集群中每个结点之间都互相连接,所以,在配置的ZooKeeper集群的时候,每一个结点的host到IP地址的映射都要配置上集群中其它结点的映射信息。
例如,我的ZooKeeper集群中每个结点的配置,以slave-01为例,/etc/hosts内容如下所示:
 view plaincopy 



[*]192.168.0.179   slave-01  
[*]192.168.0.178   slave-02  
[*]192.168.0.177   slave-03  

ZooKeeper采用一种称为Leader election的选举算法。在整个集群运行过程中,只有一个Leader,其他的都是Follower,如果ZooKeeper集群在运行过程中Leader出了问题,系统会采用该算法重新选出一个Leader。因此,各个结点之间要能够保证互相连接,必须配置上述映射。
ZooKeeper集群启动的时候,会首先选出一个Leader,在Leader election过程中,某一个满足选举算的结点就能成为Leader。整个集群的架构可以参考http://zookeeper.apache.org/doc/trunk/zookeeperOver.html#sc_designGoals。
第二步:修改ZooKeeper配置文件
在其中一台机器(slave-01)上,解压缩zookeeper-3.3.4.tar.gz,修改配置文件conf/zoo.cfg,内容如下所示:
 view plaincopy 



[*]tickTime=2000  
[*]dataDir=/home/hadoop/storage/zookeeper  
[*]clientPort=2181  
[*]initLimit=5  
[*]syncLimit=2  
[*]server.1=slave-01:2888:3888  
[*]server.2=slave-02:2888:3888  
[*]server.3=slave-03:2888:3888  

  上述配置内容说明,可以参考http://zookeeper.apache.org/doc/trunk/zookeeperStarted.html#sc_RunningReplicatedZooKeeper。
第三步:远程复制分发安装文件
上面已经在一台机器slave-01上配置完成ZooKeeper,现在可以将该配置好的安装文件远程拷贝到集群中的各个结点对应的目录下:
 view plaincopy 



[*]cd /home/hadoop/installation/  
[*]scp -r zookeeper-3.3.4/ hadoop@slave-02:/home/hadoop/installation/  
[*]scp -r zookeeper-3.3.4/ hadoop@slave-03:/home/hadoop/installation/  

  第四步:设置myid
在我们配置的dataDir指定的目录下面,创建一个myid文件,里面内容为一个数字,用来标识当前主机,conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字,例如:
 view plaincopy 



[*]hadoop@slave-01:~/installation/zookeeper-3.3.4$ echo "1" > /home/hadoop/storage/zookeeper/myid  
[*]hadoop@slave-02:~/installation/zookeeper-3.3.4$ echo "2" > /home/hadoop/storage/zookeeper/myid  
[*]hadoop@slave-03:~/installation/zookeeper-3.3.4$ echo "3" > /home/hadoop/storage/zookeeper/myid  

  按照上述进行配置即可。
第五步:启动ZooKeeper集群
在ZooKeeper集群的每个结点上,执行启动ZooKeeper服务的脚本,如下所示:
 view plaincopy 



[*]hadoop@slave-01:~/installation/zookeeper-3.3.4$ bin/zkServer.sh start  
[*]hadoop@slave-02:~/installation/zookeeper-3.3.4$ bin/zkServer.sh start  
[*]hadoop@slave-03:~/installation/zookeeper-3.3.4$ bin/zkServer.sh start  

  以结点slave-01为例,日志如下所示:
 view plaincopy 



[*]hadoop@slave-01:~/installation/zookeeper-3.3.4$ tail -500f zookeeper.out   
[*]2012-01-08 06:51:19,117 - INFO   - Reading configuration from: /home/hadoop/installation/zookeeper-3.3.4/bin/../conf/zoo.cfg  
[*]2012-01-08 06:51:19,133 - INFO   - Defaulting to majority quorums  
[*]2012-01-08 06:51:19,167 - INFO   - Starting quorum peer  
[*]2012-01-08 06:51:19,227 - INFO   - binding to port 0.0.0.0/0.0.0.0:2181  
[*]2012-01-08 06:51:19,277 - INFO   - tickTime set to 2000  
[*]2012-01-08 06:51:19,278 - INFO   - minSessionTimeout set to -1  
[*]2012-01-08 06:51:19,279 - INFO   - maxSessionTimeout set to -1  
[*]2012-01-08 06:51:19,281 - INFO   - initLimit set to 5  
[*]2012-01-08 06:51:19,347 - INFO   - My election bind port: 3888  
[*]2012-01-08 06:51:19,393 - INFO   - LOOKING  
[*]2012-01-08 06:51:19,396 - INFO   - New election. My id =  1, Proposed zxid = 0  
[*]2012-01-08 06:51:19,400 - INFO   - Notification: 1 (n.leader), 0 (n.zxid), 1 (n.round), LOOKING (n.state), 1 (n.sid), LOOKING (my state)  
[*]2012-01-08 06:51:19,416 - WARN   - Cannot open channel to 2 at election address slave-02/192.168.0.178:3888  
[*]java.net.ConnectException: Connection refused  
[*]        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)  
[*]        at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:567)  
[*]        at sun.nio.ch.SocketAdaptor.connect(SocketAdaptor.java:100)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.connectOne(QuorumCnxManager.java:371)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.toSend(QuorumCnxManager.java:340)  
[*]        at org.apache.zookeeper.server.quorum.FastLeaderElection$Messenger$WorkerSender.process(FastLeaderElection.java:360)  
[*]        at org.apache.zookeeper.server.quorum.FastLeaderElection$Messenger$WorkerSender.run(FastLeaderElection.java:333)  
[*]        at java.lang.Thread.run(Thread.java:662)  
[*]2012-01-08 06:51:19,420 - WARN   - Cannot open channel to 3 at election address slave-03/192.168.0.177:3888  
[*]08 06:51:23,223 - INFO   - Created server with tickTime 2000 minSessionTimeout 4000 maxSessionTimeout 40000 datadir /home/hadoop/storage/zookeeper/version-2 snapdir /home/hadoop/storage/zookeeper/version-2  
[*]2012-01-08 06:51:23,339 - INFO   - Getting a snapshot from leader  
[*]2012-01-08 06:51:23,358 - INFO   - Setting leader epoch 1  
[*]2012-01-08 06:51:23,358 - INFO   - Snapshotting: 0  
[*]2012-01-08 06:51:25,511 - INFO   - Notification: 3 (n.leader), 0 (n.zxid), 1 (n.round), LOOKING (n.state), 3 (n.sid), FOLLOWING (my state)  
[*]2012-01-08 06:51:42,584 - INFO   - Notification: 3 (n.leader), 0 (n.zxid), 2 (n.round), LOOKING (n.state), 3 (n.sid), FOLLOWING (my state)  

  我启动的顺序是slave-01>slave-02>slave-03,由于ZooKeeper集群启动的时候,每个结点都试图去连接集群中的其它结点,先启动的肯定连不上后面还没启动的,所以上面日志前面部分的异常是可以忽略的。通过后面部分可以看到,集群在选出一个Leader后,最后稳定了。
其他结点可能也出现类似问题,属于正常。
第六步:安装验证
可以通过ZooKeeper的脚本来查看启动状态,包括集群中各个结点的角色(或是Leader,或是Follower),如下所示,是在ZooKeeper集群中的每个结点上查询的结果:
 view plaincopy 



[*]hadoop@slave-01:~/installation/zookeeper-3.3.4$ bin/zkServer.sh status  
[*]JMX enabled by default  
[*]Using config: /home/hadoop/installation/zookeeper-3.3.4/bin/../conf/zoo.cfg  
[*]Mode: follower  
[*]  
[*]hadoop@slave-02:~/installation/zookeeper-3.3.4$  bin/zkServer.sh status  
[*]JMX enabled by default  
[*]Using config: /home/hadoop/installation/zookeeper-3.3.4/bin/../conf/zoo.cfg  
[*]Mode: leader  
[*]  
[*]hadoop@slave-03:~/installation/zookeeper-3.3.4$  bin/zkServer.sh status  
[*]JMX enabled by default  
[*]Using config: /home/hadoop/installation/zookeeper-3.3.4/bin/../conf/zoo.cfg  
[*]Mode: follower  

  通过上面状态查询结果可见,slave-02是集群的Leader,其余的两个结点是Follower。
另外,可以通过客户端脚本,连接到ZooKeeper集群上。对于客户端来说,ZooKeeper是一个整体(ensemble),连接到ZooKeeper集群实际上感觉在独享整个集群的服务,所以,你可以在任何一个结点上建立到服务集群的连接,例如:
 view plaincopy 



[*]hadoop@slave-03:~/installation/zookeeper-3.3.4$ bin/zkCli.sh -server slave-01:2181  
[*]Connecting to slave-01:2181  
[*]2012-01-08 07:14:21,068 - INFO   - Client environment:zookeeper.version=3.3.3-1203054, built on 11/17/2011 05:47 GMT  
[*]2012-01-08 07:14:21,080 - INFO   - Client environment:host.name=slave-03  
[*]2012-01-08 07:14:21,085 - INFO   - Client environment:java.version=1.6.0_30  
[*]2012-01-08 07:14:21,376 - INFO   - Socket connection established to slave-01/192.168.0.179:2181, initiating session  
[*]JLine support is enabled  
[*] 2012-01-08 07:14:21,872 - INFO   - Session establishment complete on server slave-01/192.168.0.179:2181, sessionid = 0x134bdcd6b730000, negotiated timeout = 30000  
[*]  
[*]WATCHER::  
[*]  
[*]WatchedEvent state:SyncConnected type:None path:null  
[*]  
[*] ls /  
[*]  

  当前根路径为/zookeeper。


总结说明
 
主机名与IP地址映射配置问题
启动ZooKeeper集群时,如果ZooKeeper集群中slave-01结点的日志出现如下错误:
 view plaincopy 



[*]java.net.SocketTimeoutException  
[*]        at sun.nio.ch.SocketAdaptor.connect(SocketAdaptor.java:109)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.connectOne(QuorumCnxManager.java:371)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.connectAll(QuorumCnxManager.java:404)  
[*]        at org.apache.zookeeper.server.quorum.FastLeaderElection.lookForLeader(FastLeaderElection.java:688)  
[*]        at org.apache.zookeeper.server.quorum.QuorumPeer.run(QuorumPeer.java:622)  
[*]2012-01-08 06:37:46,026 - INFO   - Notification time out: 6400  
[*]2012-01-08 06:37:57,431 - WARN   - Cannot open channel to 2 at election address slave-02/202.106.199.35:3888  
[*]java.net.SocketTimeoutException  
[*]        at sun.nio.ch.SocketAdaptor.connect(SocketAdaptor.java:109)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.connectOne(QuorumCnxManager.java:371)  
[*]        at org.apache.zookeeper.server.quorum.QuorumCnxManager.connectAll(QuorumCnxManager.java:404)  
[*]        at org.apache.zookeeper.server.quorum.FastLeaderElection.lookForLeader(FastLeaderElection.java:688)  
[*]        at org.apache.zookeeper.server.quorum.QuorumPeer.run(QuorumPeer.java:622)  
[*]2012-01-08 06:38:02,442 - WARN   - Cannot open channel to 3 at election address slave-03/202.106.199.35:3888  

很显然,slave-01在启动时连接集群中其他结点(slave-02、slave-03)时,主机名映射的IP与我们实际配置的不一致,所以集群中各个结点之间无法建立链路,整个ZooKeeper集群启动是失败的。
上面错误日志中slave-02/202.106.199.35:3888实际应该是slave-02/202.192.168.0.178:3888就对了,但是在进行域名解析的时候映射有问题,修改每个结点的/etc/hosts文件,将ZooKeeper集群中所有结点主机名到IP地址的映射配置上。
页: [1]
查看完整版本: ZooKeeper 基础知识及安装配置