Zookeeper 分布式锁
1.1 下载安装
1、环境准备
ZooKeeper服务器是用Java创建的,它运行在JVM之上。需要安装JDK 7或更高版本。
2、上传
将下载的ZooKeeper放到/opt/ZooKeeper目录下
1 |
|
3、解压
将tar包解压到/opt/zookeeper目录下
1 | tar -zxvf apache-ZooKeeper-3.5.6-bin.tar.gz |
1.2 配置启动
1、配置zoo.cfg
进入到conf目录拷贝一个zoo_sample.cfg并完成配置
1 | 进入到conf目录 |
修改zoo.cfg
1 | 打开目录 |

修改存储目录:dataDir=/opt/zookeeper/zkdata
2、启动ZooKeeper
1 | cd /opt/zooKeeper/apache-zooKeeper-3.5.6-bin/bin/ |

看到上图表示ZooKeeper成功启动
3、查看ZooKeeper状态
1 | ./zkServer.sh status |
zookeeper启动成功。standalone代表zk没有搭建集群,现在是单节点

zookeeper没有启动

Zookeeper 分布式锁
搭建Zookeeper集群
1.1 搭建要求
真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动很多个虚拟机内存会吃不消,所以我们通常会搭建伪集群,也就是把所有的服务都搭建在一台虚拟机上,用端口进行区分。
我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。
1.2 准备工作
重新部署一台虚拟机作为我们搭建集群的测试服务器。
(1)安装JDK 【此步骤省略】。
(2)Zookeeper压缩包上传到服务器
(3)将Zookeeper解压 ,建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录
/usr/local/zookeeper-cluster/zookeeper-1
/usr/local/zookeeper-cluster/zookeeper-2
/usr/local/zookeeper-cluster/zookeeper-3
1 | [root@localhost ~]# mkdir /usr/local/zookeeper-cluster |
(4)创建data目录 ,并且将 conf下zoo_sample.cfg 文件改名为 zoo.cfg
1 | mkdir /usr/local/zookeeper-cluster/zookeeper-1/data |
(5) 配置每一个Zookeeper 的dataDir 和 clientPort 分别为2181 2182 2183
修改/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
1 | vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg |
修改/usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
1 | vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg |
修改/usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
1 | vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg |
1.3 配置集群
(1)在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID
1 | echo 1 >/usr/local/zookeeper-cluster/zookeeper-1/data/myid |
(2)在每一个zookeeper 的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。
集群服务器IP列表如下
1 | vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg |
解释:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口
1.4 启动集群
启动集群就是分别启动每个实例。
1 | /usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start |
启动后我们查询一下每个实例的运行状态
1 | /usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh status |
先查询第一个服务
Mode为follower表示是跟随者(从)
再查询第二个服务Mod 为leader表示是领导者(主)
查询第三个为跟随者(从)
1.5 模拟集群异常
(1)首先我们先测试如果是从服务器挂掉,会怎么样
把3号服务器停掉,观察1号和2号,发现状态并没有变化
1 | /usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh stop |
由此得出结论,3个节点的集群,从服务器挂掉,集群正常
(2)我们再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了。
1 | /usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh stop |
由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。
(3)我们再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者。
1 | /usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start |
(4)我们把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态。
1 | /usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start |
发现新的leader产生了~
由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader
(5)我们再次测试,当我们把2号服务器重新启动起来启动后,会发生什么?2号服务器会再次成为新的领导吗?我们看结果
1 | /usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start |

我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。
由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。












