一、问题出现的原因

启动Hadoop分布式环境时出现主节点的namenode、secondarynamenode启动成功,但是Worker节点datenode启动不成功。

  hadoop@master$ ${HADOOP_HOME}/sbin/start.dfs.sh

查看Worker的输出日志,显示如下:

 [root@hadoop02 ~]# vim /opt/hadoop/logs/hadoop-root-datanode-hadoop02.log

Hadoop3.0 DataNode启动不成功——java.net.BindException: Port in use: localhost:0 Caused by: java.net.BindException: Cannot assign requested address解决办法

 

解决方法:

(1)检查网络问题。

  此次问题出现原因是由于本人切换至公司外网,导致网络请求失败。

(2)检查/etc/hosts文件的配置是否有问题。

  在hosts文件中删除多余的IP与主机名的对应关系(之前貌似也是ipc通信不成功,然后删除了127.0.0.1和0.0.0.1)之后就成为了如下的样子:

  Hadoop3.0 DataNode启动不成功——java.net.BindException: Port in use: localhost:0 Caused by: java.net.BindException: Cannot assign requested address解决办法

最后,重启HDFS:sbin/start-dsf.sh即可。

相关文章:

  • 2021-10-10
  • 2021-08-18
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-09-16
猜你喜欢
  • 2021-08-08
  • 2021-08-13
  • 2021-11-07
  • 2021-08-02
  • 2021-08-14
  • 2022-12-23
  • 2022-02-06
相关资源
相似解决方案