eclipse可以连接显示hdfs文件,但运行程序时却提示拒绝连接

报错如下:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread “main” java.net.ConnectException: Call From master/192.168.131.134 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused ……….

如图:
hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题

原因:
hdfs的权限检测机制默认是打开的,未关闭的时候,不能使用eclipse插件对DFS上的文件进行操作,比如上传,删除等。

解决方案:
关闭hadoop集群环境,关闭HDFS服务。
进入到hadoop的安装目录下的/etc/hadoop文件夹下,去修改hdfs-site.xml文件,添加一个变量如下:

hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题

然后在重新启动hadoop集群环境,然后再去eclipse里面就可以对DFS下的文件进行增删查改的操作。

hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题


You got a dream, you gotta protect it.
如果你有梦想的话,就要去捍卫它 。 ——《当幸福来敲门》

相关文章:

  • 2021-07-27
  • 2021-12-30
  • 2022-02-16
  • 2021-12-05
  • 2021-08-24
  • 2022-01-07
  • 2021-05-01
猜你喜欢
  • 2021-09-13
  • 2022-12-23
  • 2022-12-23
  • 2021-05-22
  • 2022-12-23
  • 2022-12-23
  • 2021-08-29
相关资源
相似解决方案