概述
ZooKeeper是一个分布式开源框架,提供了协调分布式应用的基本服务,它向外部应用暴露一组通用服务——分布式同步(Distributed Synchronization)、命名服务(Naming Service)、集群维护(Group Maintenance)等,简化分布式应用协调及其管理的难度,提供高性能的分布式服务。ZooKeeper本身可以以Standalone模式安装运行,不过它的长处在于通过分布式ZooKeeper集群(一个Leader,多个Follower),基于一定的策略来保证ZooKeeper集群的稳定性和可用性,从而实现分布式应用的可靠性。
本地模式安装 :本人linux下的JDK版本是1.8
下载地址:https://mirror.bit.edu.cn/apache/ 找到zookeeper 选择对应版本下载即可。 3.5.5版本开始要下载 bin.tar.gz 的包。
1.下载并解压 zookeeper-3.4.13.tar.gz
tar -zxvf zookeeper-3.4.13.tar.gz -C /mysoft/
2.修改配置文件
cp zoo_sample.cfg zoo.cfg
修改以下参数。将zookeeper的数据存储指定到文件夹,创建文件夹 mkdir zkData
3.启动zookeeper ,停止使用 bin/zkServer.sh stop
bin/zkServer.sh start
查看运行状态
bin/zkServer.sh status
4.启动zookeeper客户端
bin/zkCli.sh
退出使用 quit ,连接其他客户端 zkCli.sh -serve 127.0.0.1(IP):2182(port) 这样子来连接
5.zookeeper 配置文件
# The number of milliseconds of each tick
# 心跳时间2秒
# 客户端与服务器或者服务器与服务器之间维持心跳,
# 也就是每个tickTime时间就会发送一次心跳。
# 通过心跳不仅能够用来监听机器的工作状态,
# 还可以通过心跳来控制Flower跟Leader的通信时间,
# 默认情况下FL的会话时常是心跳间隔的两倍。
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
# 集群中的follower服务器(F)与leader服务器(L)之间
# 初始连接时能容忍的最多心跳数(tickTime的数量)。
# tickTime * 10 =20秒没通讯就认为挂了
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
# 集群中flower服务器(F)跟leader(L)
# 服务器之间的请求和答应最多能容忍的心跳数。
# tickTime * 5 =10秒没通讯就认为挂了
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
# 数据存放位置
dataDir=/mysoft/zookeeper-3.4.13/zkData
# the port at which the clients will connect
# 客户端连接的接口,客户端连接zookeeper服务器的端口,
# zookeeper会监听这个端口,接收客户端的请求访问!这个端口默认是2181。
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
zookeeper 日志的配置地址在conf/目录下的log4j.properties文件中,该文件中有一个配置为“zookeeper.log.dir=.”,表示log4j日志文件在与执行程序(zkServer.sh)在同一目录下。当执行zkServer.sh 时,在该文件夹下会产生zookeeper.out日志文件,可以通过日志文件查看运行信息。
伪分布式安装:
1.解压完安装包后,进入zookeeper/conf/目录下,将改目录下的zoo_sample.cfg配置文件拷贝3份,依次 zoo1.cfg zoo2.cfg zoo3.cf。使用vim编辑zoo1.cfg zoo2.cfg zoo3.cfg这三个配置文件。
clientPort = ?, 分别将三个配置文件修改为2181.2182.2183
修改dataDir的路径,分别为zkData1. zkData2. zkData3,并且再对应服务上的zookeeper-3.4.13目录下创建文件夹
dataDir=/mysoft/zookeeper-3.4.13/zkData
文件结尾添加以下信息,我这里是准备部署3台,所以只有3条信息
server.1=IP:2888(数据同步端口):3888(Leader选举端口)
server.2=IP:2889:3889
server.3=IP:2890:3890
server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号。
2.在各data文件下创建名为myid的文件,文件内容对应服务器编号
touch myid
3.写入服务器编号,也就是1中server.1(2.3)的对应值
echo 1 > zkDdata1/myid
echo 2 > zkDdata2/myid
echo 3 > zkDdata3/myid
4.依次启动服务,服务按照次序启动,启动时的选举算法是依次投票,这里的leader顺理就是2号配置文件启动的服务。其他的都是fllower,当启动第一台服务器的时候查看状态是不可用的,应为集群中节点未在半数以上。 集群中奇数和偶数对故障的容忍度是一致的....所以建议配置奇数个,并不是必须奇数...
sh zkServer.sh start /mysoft/zookeeper-3.4.13/conf/zoo1.cfg
sh zkServer.sh start /mysoft/zookeeper-3.4.13/conf/zoo2.cfg
sh kServer.sh start /mysoft/zookeeper-3.4.13/conf/zoo3.cfg
5.查看状态 记得关闭防火墙哦
sh zkServer.sh status /mysoft/zookeeper-3.4.13/conf/zoo1.cfg
sh zkServer.sh status /mysoft/zookeeper-3.4.13/conf/zoo2.cfg
sh zkServer.sh status /mysoft/zookeeper-3.4.13/conf/zoo3.cfg
启动客户端 sh zkCli.sh -server 127.0.0.1:port
伪分布式安装就是在一台机器上配置多个配置文件,根据不同的配置文件来启动,而真正的分布式下就是将配置文件安装在各自服务器下。要注意server的配置
基于 Java API 初探 zookeeper 的使用:
先来简单看一下API的使用:
public class ConnectionDemo { public static void main(String[] args) {
try {
final CountDownLatch countDownLatch=new CountDownLatch();
ZooKeeper zooKeeper=
new ZooKeeper("192.168.254.135:2181," +
"192.168.254.136:2181,192.168.254.137:2181",
, new Watcher() {
@Override
public void process(WatchedEvent event) {
if(Event.KeeperState.SyncConnected==event.getState()){
//如果收到了服务端的响应事件,连接成功
countDownLatch.countDown();
}
}
});
System.out.println(zooKeeper.getState());//CONNECTING
countDownLatch.await();
System.out.println(zooKeeper.getState());//CONNECTED //添加节点
zooKeeper.create("/zk-wuzz","".getBytes(),ZooDefs.Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
Thread.sleep();
Stat stat=new Stat(); //得到当前节点的值
byte[] bytes=zooKeeper.getData("/zk-wuzz",null,stat);
System.out.println(new String(bytes)); // 0 //修改节点值
zooKeeper.setData("/zk-wuzz","".getBytes(),stat.getVersion()); //得到当前节点的值
byte[] bytes1=zooKeeper.getData("/zk-wuzz",null,stat);
System.out.println(new String(bytes1)); // zooKeeper.delete("/zk-wuzz",stat.getVersion()); zooKeeper.close(); System.in.read();
} catch (IOException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
} catch (KeeperException e) {
e.printStackTrace();
}
}
}