Zookeeper单机环境和集群环境搭建

一、单机环境搭建

1.1 下载

下载对应版本 Zookeeper,这里我下载的版本 3.4.14。官方下载地址:https://archive.apache.org/dist/zookeeper/

  1. # wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz

1.2 解压

  1. # tar -zxvf zookeeper-3.4.14.tar.gz

1.3 配置环境变量

  1. # vim /etc/profile

添加环境变量:

  1. export ZOOKEEPER_HOME=/usr/app/zookeeper-3.4.14
  2. export PATH=$ZOOKEEPER_HOME/bin:$PATH

使得配置的环境变量生效:

  1. # source /etc/profile

1.4 修改配置

进入安装目录的 conf/ 目录下,拷贝配置样本并进行修改:

  1. # cp zoo_sample.cfg zoo.cfg

指定数据存储目录和日志文件目录(目录不用预先创建,程序会自动创建),修改后完整配置如下:

  1. # The number of milliseconds of each tick
  2. tickTime=2000
  3. # The number of ticks that the initial
  4. # synchronization phase can take
  5. initLimit=10
  6. # The number of ticks that can pass between
  7. # sending a request and getting an acknowledgement
  8. syncLimit=5
  9. # the directory where the snapshot is stored.
  10. # do not use /tmp for storage, /tmp here is just
  11. # example sakes.
  12. dataDir=/usr/local/zookeeper/data
  13. dataLogDir=/usr/local/zookeeper/log
  14. # the port at which the clients will connect
  15. clientPort=2181
  16. # the maximum number of client connections.
  17. # increase this if you need to handle more clients
  18. #maxClientCnxns=60
  19. #
  20. # Be sure to read the maintenance section of the
  21. # administrator guide before turning on autopurge.
  22. #
  23. # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
  24. #
  25. # The number of snapshots to retain in dataDir
  26. #autopurge.snapRetainCount=3
  27. # Purge task interval in hours
  28. # Set to "0" to disable auto purge feature
  29. #autopurge.purgeInterval=1

配置参数说明:

  • tickTime:用于计算的基础时间单元。比如 session 超时:N*tickTime;
  • initLimit:用于集群,允许从节点连接并同步到 master 节点的初始化连接时间,以 tickTime 的倍数来表示;
  • syncLimit:用于集群, master 主节点与从节点之间发送消息,请求和应答时间长度(心跳机制);
  • dataDir:数据存储位置;
  • dataLogDir:日志目录;
  • clientPort:用于客户端连接的端口,默认 2181

1.5 启动

由于已经配置过环境变量,直接使用下面命令启动即可:

  1. zkServer.sh start

1.6 验证

使用 JPS 验证进程是否已经启动,出现 QuorumPeerMain 则代表启动成功。

  1. [root@hadoop001 bin]# jps
  2. 3814 QuorumPeerMain

二、集群环境搭建

为保证集群高可用,Zookeeper 集群的节点数最好是奇数,最少有三个节点,所以这里演示搭建一个三个节点的集群。这里我使用三台主机进行搭建,主机名分别为 hadoop001,hadoop002,hadoop003。

2.1 修改配置

解压一份 zookeeper 安装包,修改其配置文件 zoo.cfg,内容如下。之后使用 scp 命令将安装包分发到三台服务器上:

  1. tickTime=2000
  2. initLimit=10
  3. syncLimit=5
  4. dataDir=/usr/local/zookeeper-cluster/data/
  5. dataLogDir=/usr/local/zookeeper-cluster/log/
  6. clientPort=2181
  7. # server.1 这个1是服务器的标识,可以是任意有效数字,标识这是第几个服务器节点,这个标识要写到dataDir目录下面myid文件里
  8. # 指名集群间通讯端口和选举端口
  9. server.1=hadoop001:2287:3387
  10. server.2=hadoop002:2287:3387
  11. server.3=hadoop003:2287:3387

2.2 标识节点

分别在三台主机的 dataDir 目录下新建 myid 文件,并写入对应的节点标识。Zookeeper 集群通过 myid 文件识别集群节点,并通过上文配置的节点通信端口和选举端口来进行节点通信,选举出 Leader 节点。

创建存储目录:

  1. # 三台主机均执行该命令
  2. mkdir -vp /usr/local/zookeeper-cluster/data/

创建并写入节点标识到 myid 文件:

  1. # hadoop001主机
  2. echo "1" > /usr/local/zookeeper-cluster/data/myid
  3. # hadoop002主机
  4. echo "2" > /usr/local/zookeeper-cluster/data/myid
  5. # hadoop003主机
  6. echo "3" > /usr/local/zookeeper-cluster/data/myid

2.3 启动集群

分别在三台主机上,执行如下命令启动服务:

  1. /usr/app/zookeeper-cluster/zookeeper/bin/zkServer.sh start

2.4 集群验证

启动后使用 zkServer.sh status 查看集群各个节点状态。如图所示:三个节点进程均启动成功,并且 hadoop002 为 leader 节点,hadoop001 和 hadoop003 为 follower 节点。

Zookeeper 单机环境和集群环境搭建 - 图1
Zookeeper 单机环境和集群环境搭建 - 图2
Zookeeper 单机环境和集群环境搭建 - 图3