在搭建好的spark环境上运行spark-shell,出现如下connection refused错误
java.net.ConnectException: Call From coocaabi/172.20.5.199 to coocaabi:9000 failed on connection exception: java .net.ConnectException:Connection refused;
spark运行spark-shell出现Connection refused问题

解决方案:
在Hadoop 的文件夹下的/etc/hadoop的配置文件core-site.xml ,hdfs-site.xml,yarn-site.xml,mapred-site.xml中的host_name_1(服务器名字)改成对应的ip地址,因为有时候用字符串名字,系统识别不出;
如果你还是担心,就索性把用服务器名字代替的配置文件,都改为用ip地址配置。

note:配置完主节点,不要忘记把文件配置分别copy到其他节点各一份,更新所有节点的配置。

相关文章:

  • 2022-12-23
  • 2021-12-08
  • 2021-10-18
  • 2021-08-09
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2022-01-17
  • 2022-12-23
  • 2021-08-09
  • 2022-12-23
  • 2021-11-27
  • 2021-05-12
相关资源
相似解决方案