笔记:在配置好了spark后,如果需要添加/删除一个结点需要修改如下配置文件

 

cd $HADOOP/etc/hadoop 进入hadoop配置文件夹下

修改 slaves,将对应的节点添加/删除

修改hdfs-site.xml , 修改hdfs副本的数量。

 

cd $SPARK_HOME/conf 进入spark配置文件夹下

修改slaves,将对应的节点添加/删除

修改spark-env.sh ,将SPARK_MASTER_IP=192.168.1.*** 这里的IP为主节点的IP。

相关文章:

  • 2021-09-23
  • 2021-05-23
  • 2022-02-14
  • 2022-12-23
  • 2021-08-01
  • 2021-11-27
  • 2022-12-23
  • 2022-01-02
猜你喜欢
  • 2021-08-19
  • 2021-07-10
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案