一、Xshell创建用户和文件目录

Xshell里连接虚拟机

1.创建一个新的用户 hadoop

命令 useradd hadoop -m

-m 是为hadoop创建一个主体目录

2.为hadoop用户设置密码

命令:passwd hadoop

3.理解[[email protected] ~]#

root 表示系统用户

@表示在

bogon 主机名称

~ 标识主体目录

二、解压缩文件和配置JDK

1.切换到hadoop用户(把文件解压到hadoop用户目录里)

Python--大数据02

2.进入hadoop目录,创建一个opt目录

Python--大数据02

3.xftp的使用(需要安装xftp)

Python--大数据02

4.等待传输完毕进行查看

Python--大数据02

5.tar:压缩 解压缩

命令:tar -xzf  文件名((输文件名时可以输入前面几个字母后按Tab键) -C 目录

Python--大数据02

不显示解压过程 进入目录查看有没有解压成功

Python--大数据02

6.配置我们的变量环境

(1)修改环境配置的文件 vi ~/.bashrc

(2)按i添加环境变量

Python--大数据02

(3)按esc 输入:wq保存并退出

Python--大数据02

(4)更新环境变量文件 source ~/.bashrc

Python--大数据02

三、hadoop的环境变量配置

1.上传hadoop(切记在hadoop用户下)

Python--大数据02

2.解压 tar-xzf hadoop-2.7.5.tar.gz

Python--大数据02

3.配置环境变量

(1)首先进入hadoop的根目录

Python--大数据02

(2)配置HDOOP_HOME直接追加

Python--大数据02

查看bashrc文件

Python--大数据02

配置HADOOP_CONF_DIR

Python--大数据02

(4)配置PATH vi ~/.bashrc (删除上面的PATH,重新写入一个新的)

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

Python--大数据02

(5)source更新文件

Python--大数据02

(6)输入hadoop测试环境变量生效了没,证明生效

Python--大数据02

四 搭建hadoop

1.配置静态IP

(1)切换root用户(否则下面的操作没有权限)

Python--大数据02

(2)查看你的网段

Python--大数据02

(3)命令:vi /etc/sysconfig/network-scripts/ifcfg-ens33

修改BOOTPROTO=static onroot = yes

添加

IPADDR=192.168.66.110 (66设置成你的网段,最后随便设置,请牢记这个ip)

NETMASK=255.255.255.0

GATEWAY=192.168.66.2(这里的66也请改成你的网段)

DNS1=202.106.0.20

Python--大数据02

 

(4)重启network  命令:systemctl restart network

Python--大数据02

(5)输入 ssh 192.168.66.130 看看配置生效了没

Python--大数据02

相关文章:

  • 2021-08-16
  • 2022-02-08
  • 2021-12-09
  • 2022-12-23
  • 2021-12-25
  • 2021-11-16
  • 2021-07-23
  • 2022-01-19
猜你喜欢
  • 2022-02-18
  • 2021-11-16
  • 2022-01-29
  • 2021-09-24
  • 2021-07-05
  • 2022-12-23
  • 2021-10-28
相关资源
相似解决方案