Standalone 集群模式

集群角色介绍:

Spark是基于内存计算的大数据并行计算框架,实际中运行计算任务肯定是使用集群模式,那么我们先来学习Spark自带的standalone集群模式了解一下它的架构及运行机制。

Standalone集群使用了分布式计算中的master-slave模型

master是集群中含有master进程的节点

slave是集群中的worker节点含有Executor进程

●Spark架构图如下(先了解):

http://spark.apache.org/docs/latest/cluster-overview.html

Spark  Standalone

集群规划 :

node001:master

node002:slave/worker  

node003:slave/worker 

修改配置并分发

●修改Spark配置文件

cd /export/servers/spark/conf

mv spark-env.sh.template spark-env.sh

vim  spark-env.sh

#配置java环境变量

export JAVA_HOME=/export/servers/jdk1.8

 

#指定spark Master的IP

export SPARK_MASTER_HOST=node01

 

#指定spark Master的端口

export SPARK_MASTER_PORT=7077

cp slaves.template  slaves

vim  slaves

node002

node003

●配置spark环境变量 (建议不添加,避免和Hadoop的命令冲突)     ! 不推荐添加 ! 

将spark添加到环境变量,添加以下内容到 /etc/profile

export SPARK_HOME=/export/servers/spark

export PATH=$PATH:$SPARK_HOME/bin

注意:

hadoop/sbin 的目录和 spark/sbin 可能会有命令冲突:

start-all.sh stop-all.sh

解决方案:

1.把其中一个框架的 sbin 从环境变量中去掉;

2.改名 hadoop/sbin/start-all.sh 改为: start-all-hadoop.sh

 

●通过scp 命令将配置文件分发到其他机器上

scp -r spark-2.2.0-bin-2.6.0-cdh5.14.0/  node002:$PWD

scp -r spark-2.2.0-bin-2.6.0-cdh5.14.0/  node003:$PWD

scp -r /export/servers/spark node002:$PWD

scp -r /export/servers/spark node003:$/PWD

Spark  Standalone

启动 or  停止​​​​

●集群启动和停止

在主节点上启动spark集群

/export/servers/spark/sbin/start-all.sh

Spark  Standalone

在主节点上停止spark集群

/export/servers/spark/sbin/stop-all.sh

●单独启动和停止      (一般 不用)

在 master 安装节点上启动和停止 master:

start-master.sh

stop-master.sh

在 Master 所在节点上启动和停止worker(work指的是slaves 配置文件中的主机名)

start-slaves.sh

stop-slaves.sh

查看web界面

正常启动spark集群后,查看spark的web界面,查看相关信息。

http://node001:8080/

Spark  Standalone

​​​​​​​

相关文章:

  • 2022-12-23
  • 2021-12-18
  • 2022-12-23
  • 2022-12-23
  • 2021-12-23
  • 2022-01-12
  • 2021-08-31
  • 2021-06-17
猜你喜欢
  • 2021-10-15
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-01-26
相关资源
相似解决方案