首先介绍配置环境

linux版本 CentOS release 6.7 64位 一个master,若干slave

windows版本 win7 32位

hadoop 2.6.0版本

1 安装插件hadoop-eclipse-plugin-2.6.0.jar,下载后放到eclipse/plugins,重启eclipse

2 在windows下解压hadoop-2.6.0.tar.gz,由于我的电脑是win32的,解压的32位的hadoop。

在eclipse->Window->preferences的hadoop map/reduce 中设置安装目录

windows下eclipse连接hadoop

3 Window->Show View->other,选择Map/Reduce Locations

windows下eclipse连接hadoop

在eclipse下方显示

windows下eclipse连接hadoop

右击选择new hadoop location

windows下eclipse连接hadoop

配置参数

location name:可以根据自己喜好随便起

host:hadoop的namenode节点的IP地址,或者在本机hosts文件中添加了相应IP地址也可以用那个名字

port:在配置文件中配置的相应选项,没有配置则填默认配置文件中的默认值

重启eclipse,edit hadoop location,在advanced parameters更改一些配置

我就改了ftp.replication,数据复制份数

           hadoop.tmp.dir,与配置文件中的内容相同

           相关name.dir与data.dir会在重启eclipse后自动更改

其他可根据需要进行更改

点击finish

3 Window->Perspective->open perspective->other,选择Map/Reduce

windows下eclipse连接hadoop

可看到

windows下eclipse连接hadoop

即连接hadoop成功

相关文章:

  • 2021-07-03
  • 2022-03-09
  • 2021-05-10
  • 2021-09-22
  • 2021-12-29
  • 2021-04-22
  • 2021-07-27
  • 2022-01-16
猜你喜欢
  • 2022-12-23
  • 2021-09-20
  • 2021-12-29
  • 2021-06-16
  • 2022-12-23
相关资源
相似解决方案