伪分布式
一台服务器上启动多个进程来表示多个角色(角色=进程)

伪分布式模式安装和配置步骤

  1. 配置hosts文件
    主机名修改为:node01
    通过修改network文件,修改计算机名称为node01
[[email protected] hadoop]# cat /etc/sysconfig/network
        HOSTNAME=node01

修改/etc/hosts文件:``
添加“192.168.228.100 node01”,网络名hadoop1对应ip为虚拟机地址192.168.228.100(可在 /etc/sysconfig/networkscripts/ifcfg-eth0 中配置静态ip)

[email protected] etc]# vi hosts
    127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
    192.168.25.141 node01
  1. 配置ssh免密码接入
    ①	ssh-****** -t rsa -P '' -f ~/.ssh/id_rsa
    ②	ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected]
  1. JDK环境配置
    编辑/etc/profile
    export JAVA_HOME=/home/jdk1.8.0			<!-- 你的JDK安装目录 -->
    export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    export PATH=$PATH:$JAVA_HOME/bin:$PATH

使配置生效,输入命令,source /etc/profile

  1. 下载幵解压hadoop安装包

  2. 配置集群,修改site文件
    修改hdfs-site.xml配置文件

    <property>
            <name>dfs.replication</name>
            <value>1</value>	<!-- 总存储分数(备份数+1)-->
    </property>
    
    <property>     
     <name>dfs.namenode.secondary.http-address</name>
         <value>node01:50090</value>	   <!-- SecondaryNameNode的位置 -->
    </property>

修改core-site.xml配置文件

<property>
        <name>fs.defaultFS</name>		<!--  HDFS文件默认地址前缀(简化实际访问时路径书写) -->
        <value>hdfs://node01:9000</value>
</property>
<property>
        <name>hadoop.tmp.dir</name>			<!-- HDFS文件存储位置 -->
        <value>/var/abc/hadoop/local</value>
</property>

修改slaves配置文件(配置从节点)
修改为node01

配置hadoop-env.sh文件

    # The java implementation to use.
    export JAVA_HOME=/home/jdk1.8.0
    # 在hadoop-env.sh 配置一条hadoop配置文件所在目录
    export HADOOP_CONF_DIR=/home/hadoop-2.7.5/etc/hadoop

刷新配置 source hadoop-env.sh

  1. 将Hadoop 执行命令目录加入到path 中
    在vi /etc/profile 中添加:
    export HADOOP_HOME=" 你的hadoop 安装路径"
    在path 中增加
    HADOOPHOME/bin:HADOOP_HOME/bin:HADOOP_HOME/sbin:
    export HADOOP_HOME=/home/hadoop-2.7.5
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

刷新配置 source /etc/profile

  1. 格式化namenode
hdfs namenode -format
  1. 启动hadoop
start-dfs.sh
  1. 用jps检验各后台进程是否成功启动
    [[email protected] sbin]# jps
    3233 DataNode
    3608 SecondaryNameNode
    3405 NameNode

思维导图

大数据之二 伪分布式搭建

相关文章:

  • 2021-10-14
  • 2021-10-30
  • 2022-01-23
  • 2022-01-01
  • 2021-05-05
  • 2021-11-18
  • 2021-09-07
猜你喜欢
  • 2021-06-18
  • 2021-10-13
  • 2021-07-11
  • 2022-12-23
  • 2021-09-10
相关资源
相似解决方案