一、zookeeper集群搭建

    鉴于 zookeeper 本身的特点,服务器集群的节点数推荐设置为奇数台。我这里我规划为三台, 为别为 hadoop01,hadoop02,hadoop03 
   1、下载地址: http://mirrors.hust.edu.cn/apache/zookeeper/
        版本号: zookeeper-3.4.7.tar.gz 

   2、解压安装到自己的目录

    tar -zxvf zookeeper-3.4.7.tar.gz -C apps/ 

   3、修改配置文件

    cd conf/
    mv zoo_sample.cfg zoo.cfg

   vi zoo.cfg 

Zookeeper(二) zookeeper集群搭建 与使用

 

Zookeeper(二) zookeeper集群搭建 与使用

Zookeeper(二) zookeeper集群搭建 与使用

二、启动软件,并验证安装是否成功

Zookeeper(二) zookeeper集群搭建 与使用

 三、zookeeper集群使用

      1、cli使用

首先,我们可以是用命令 bin/zkCli.sh 进入 zookeeper 的命令行客户端,这种是直接连接本机 的 zookeeper 服务器,还有一种方式,可以连接其他的 zookeeper 服务器,只需要我们在命 令后面接一个参数-server 就可以了。 例如: zkCli.sh –server hadoop01:2181

      进入命令行之后,键入 help 可以查看简易的命令帮助文档, 

Zookeeper(二) zookeeper集群搭建 与使用

 

znode 数据信息字段解释

Zookeeper(二) zookeeper集群搭建 与使用

Zookeeper(二) zookeeper集群搭建 与使用

 

Zookeeper(二) zookeeper集群搭建 与使用

    2、zookeeper  Java API 使用

Zookeeper(二) zookeeper集群搭建 与使用

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
package com.ghgj.zkapi;
 
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.List;
 
import org.apache.zookeeper.CreateMode;
import org.apache.zookeeper.KeeperException;
import org.apache.zookeeper.ZooDefs.Ids;
import org.apache.zookeeper.ZooKeeper;
import org.apache.zookeeper.data.Stat;
 
public class ZKAPIDEMO {
 
    // 获取zookeeper连接时所需要的服务器连接信息,格式为主机名:端口号
    private static final String ConnectString = "hadoop02:2181";
 
    // 请求了解的会话超时时长
    private static final int SessionTimeout = 5000;
 
    public static void main(String[] args) throws Exception {
 
        /**
         * 获取zookeeper链接, 要求的连接参数至少有三个: ConnectString:服务器的连接信息
         * SessionTimeout:请求连接的超时时长 Watch:添加监听器
         */
        ZooKeeper zk = new ZooKeeper(ConnectString, SessionTimeout, null);
 
        // 根据拿到的zk连接去做相应的操作
 
        // 查看节点数据
        // byte[] data = zk.getData("/ghgj/hadoop", false, null);
        // System.out.println(new String(data));
 
        // 查看子节点的信息
        // String parentNodePath = "/ghgj";
        // List<String> childrens = zk.getChildren(parentNodePath, false);
        // for(String child : childrens){
        // System.out.println(parentNodePath+"/"+child);
        // }
 
        // 修改节点的数据
        // Stat setData = zk.setData("/ghgj/hadoop",
        // "hadoopsprakjsdlfkj".getBytes(), -1);
        // long mtime = setData.getMtime();
        // SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd hh:mm:ss");
        // System.out.println(sdf.format(new Date(mtime)));
 
        // 添加持久节点znode
         String addPathnode = "/spark/node";
         String path = zk.create(addPathnode, "node".getBytes(),
         Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT_SEQUENTIAL);
         System.out.println(path);
 
        // 添加短暂型节点
        // String addPathnode1 = "/ghgj/hive1";
        // String path1 = zk.create(addPathnode1, "hive1".getBytes(),
        // Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
        // System.out.println(path1);
        // Thread.sleep(5000);
         
        // 删除一个带有多级子节点的znode
//      boolean rmr = rmr("/zk", zk);
//      System.out.println(rmr?"删除成功":"删除失败");
 
        zk.close();
    }
 
    public static Stat exists(String path, ZooKeeper zk) throws Exception {
        Stat exists = zk.exists("/ghgj/hadoop"false);
        if (null != exists) {
            System.out.println("该节点/ghgj/hadoop还存在");
            return exists;
        else {
            System.out.println("该节点/ghgj/hadoop不存在");
            return null;
        }
    }
 
    public static boolean rmr(String path, ZooKeeper zk) throws Exception {
        // 判断节点存在不存在
        Stat stat = exists(path, zk);
//      if (stat.getNumChildren() == 0) {
        List<String> children = zk.getChildren(path, false);
        if (children.size() == 0) {
            // 删除节点
            zk.delete(path, -1);
        else {
            // 要删除这个有子节点的父节点,那么就需要先删除所有子节点,然后再删除该父节点,完成对该节点的级联删除
            // 删除有子节点的父节点下的所有子节点
            for (String nodeName : children) {
                System.out.println(path);
                rmr(path + "/" + nodeName, zk);
            }
            // 删除该父节点
            rmr(path, zk);
        }
        return true;
    }
}

相关文章: