在第一台上(没有配置zookeeper的)

cd $HADOOP_HOME

然后将

Cp -r hadoop  hadoop-full

进入hadoop

修改hdfs.site

Ha模式

配置ha模式的

没有secondary的配置,所以删除

配置journalnode的配置

配置代理类和实现方式免**

配置第四种配置

配置coresite.xml

配置地址

配置zookeeper的队列

第一台上边配置完了之后,将第一台上的分别分发给其他的几台虚拟机

Scp  core-site.xml  hdfs-site.xml  node02:`pwd`

部署的前提是要启动journalnode。三台都要启动

从第一台格式化:

hdfs namenode -format

在第二台与第一台进程同步之前,启动第一台的namenode

在第二台上执行:

hdfs namenode -bootstrapStandby

想要启动start-dfs,就要启动zkfc,zkfc依赖于zookeeper,因此要对zookeeper做一次格式化

调出zkfc的客户端

Zkcli.sh

在第一台进行格式化:

Hdfs  zkfc  -formatZK

这下就可以启动dfs了:

Start-dfs.sh

HDFS部分:Hdfs的配置

相关文章:

  • 2021-08-30
  • 2022-01-22
  • 2021-06-10
  • 2022-02-08
  • 2022-02-08
  • 2022-02-08
  • 2022-01-31
猜你喜欢
  • 2021-11-09
  • 2022-02-08
  • 2022-02-08
  • 2021-06-10
  • 2021-10-05
  • 2021-08-17
  • 2021-06-20
相关资源
相似解决方案