关于hadoop新增节点网上的说法都有些差别,自己来实践一把


1.建立一个namenode一个datanode的集群

master:192.168.126.130

slave1:192.168.126.131

实验-hadoop新增节点

实验-hadoop新增节点

2.新增一个datanode,配置JDK、SSH、hadoop、Host、hostname;

slave2:192.168.126.132

3.在新增datanode上启动守护进程

实验-hadoop新增节点

很快namenode就认识到了新成员的加入

实验-hadoop新增节点

 

实验-hadoop新增节点

新节点添加成功


 

然后关闭slave2

实验-hadoop新增节点

这里面发现一个细节

实验-hadoop新增节点

hdfs在datanode“失联”一定时间后才会认为其dead。这里我不断刷新,这个“失联”时间不断增大

而正常数值在0、1、2之间变换,就是说最迟2秒内namenode就会收到一次slave1的心跳

运行hadoop dfsadmin -refreshNode也不起作用

我刷到500多的时候没耐心了,因为我觉得这个时间有点长,实际应用中应该适当设置这个数值


 

关于命令hadoop dfsadmin -refreshNode,刷新节点应该在新增节点的时候可以让namenode快速找到新增加的datanode

因为这里网络延迟很低,所以看不到作用。但是down掉一个的时候还是以“失联”时间为基准 


 

 关于dfs.hosts.exclude

这里是在安全的考虑下启动了安全链接,就是不能让任何机器可以随意加入集群,只有namenode认证的才允许加入

这里没有启用这个功能,所以不用在exlude中加入slave2

启用后添加新节点实践了一把差别不大,是多了exlude的操作


 

相关文章:

  • 2022-12-23
  • 2022-02-12
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-21
  • 2021-06-06
猜你喜欢
  • 2022-12-23
  • 2021-09-29
  • 2021-10-03
  • 2022-12-23
  • 2021-09-29
  • 2021-07-31
相关资源
相似解决方案