首先在阿里云购买一个服务器Linux centos使用Xshell连接(通过ip地址账号密码)

通过Xftp 把下载好的jdk、hadoop压缩包放到远程服务器上 文件目录/software

执行解压命令分别解压jdk和hadoop压缩包

jdk:tar -zxvf jdk-8u162-linux-x64.tar.gz -C /usr/local/java/

hadoop:tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/hadoop/

查看jdk 和 hadoop版本

jdk:java -version 命令

hadoop:到hadoop目录下执行./bin/hadoop version

配置环境变量 通过vim编辑/etc/profile

export JAVA_HOME=/usr/local/java/jdk1.8.0_162 export JRE_HOME=JAVAHOME/jreexportCLASSPATH=.:{JAVA_HOME}/jre exportCLASSPATH=.:{JAVA_HOME}/lib:JREHOME/libexportPATH=.:{JRE_HOME}/lib export PATH=.:{JAVA_HOME}/bin:HADOOPHOME/bin:{HADOOP_HOME}/bin:{HADOOP_HOME}/sbin:PATHexportHADOOPHOME=/usr/local/hadoop/hadoop2.7.1exportPATH=PATH export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.1 export PATH=PATH:HADOOPHOME/binexportPATH=HADOOP_HOME/bin export PATH=PATH:$HADOOP_HOME/sbin
(Markdown原因…)

测试hadoop

cd /usr/local/hadoop/hadoop-2.7.1/

mkdir ./input

cp ./etc/hadoop/*.xml ./input

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar grep input output ‘dfs[a-z.]+’ cat ./output/*

伪分布式环境配置

core-site.xml :
大数据环境安装测试-Hadoop
hdfs-site.xml:
大数据环境安装测试-Hadoop
格式化:./bin/hdfs namenode -format

接着开启 NaneNode 和 DataNode 守护进程:
./sbin/start-dfs.sh

jps查看是否成功
大数据环境安装测试-Hadoop

相关文章:

  • 2021-07-06
  • 2021-11-29
  • 2021-09-19
  • 2021-07-02
  • 2021-08-27
  • 2021-12-14
  • 2021-08-05
  • 2021-05-20
猜你喜欢
  • 2021-05-14
  • 2021-10-18
  • 2022-12-23
  • 2022-12-23
  • 2022-01-01
  • 2021-04-02
  • 2022-01-21
相关资源
相似解决方案