- spark下载地址 https://mirrors.aliyun.com/apache/spark/
- 我用的版本是 spark-2.3.4
- 三台服务搭建的一个集群
- 下面直接贴图
- master节点
- master备用节点 状态是STANDBY
下来我们测试下将主节点的master进程关掉
然后备用master节点中就会更新状态变成ALIVE
直接贴相关的配置
slaves中将localhost注释 添加自己服务器的地址 多台服务器都是相同的操作
进入编辑spark-env.sh添加下面的相关配置
需要注意的是 SPARK_MASTER_HOST配置成自己的内网的IP地址
我这里SPARK_MASTER_HOST 的配置需要搭建zookeeper集群 和 scala语言