Master启动后 ,slave1和slave2 DataNode节点没有启动的问题

 

先停掉hadoop

/usr/local/src/hadoop-2.6.5/sbin/stop-all.sh

 

master节点和slave1, salve2节点上 下面3个文件下清空

注意: 三个节点同时清空,不然白费

mkdir /usr/local/src/hadoop-2.6.5/tmp

mkdir -p /usr/local/src/hadoop-2.6.5/dfs/name

mkdir -p /usr/local/src/hadoop-2.6.5/dfs/data

hadoop namenode -format

/usr/local/src/hadoop-2.6.5/sbin/start-all.sh

如还无效则重启, 然后  重复上面步骤

针对启动hadoop后, 再启动spark , slave节点datanode消失问题

http://master:8088/cluster

Master节点没有namenode节点问题

中间肯定没有hadoop namenode -format

 

网址  Master:50070  能访问代表hdfs正常

DataNode能显示slave节点信息代表DataNode节点正常

 

相关文章: