Spark 集群环境搭建(standalone)

2017115,星期日

19:11

接上文hdfs集群搭建,我分别在四个node(一个master.hadoop 三个slave node)上搭建spark集群,这个集群是standalone模式。

spark集群安装也需要配置无密码登录,因为我之前安装hadoop时已经安装过了,所以这次就不用在重新配置了。

  

安装步骤

  1. 下载spark安装包 spark-2.2.0-bin-hadoop2.7 解压缩到/usr下面

    注意解压缩后修改文件夹名字为 spark

    Spark学习之(二)Spark 集群环境搭建(standalone)

  

  1. 配置spark配置文件

    spark-env.sh

    Spark学习之(二)Spark 集群环境搭建(standalone)

      

    slaves 文件

    Spark学习之(二)Spark 集群环境搭建(standalone)

      

    在slaves机器上依次执行以上两个步骤以完成spark的安装

  2. 启动集群

      

    Spark学习之(二)Spark 集群环境搭建(standalone)

    Spark学习之(二)Spark 集群环境搭建(standalone)  

    至此spark集群搭建成功

  

  

  

  

  

相关文章:

  • 2022-12-23
  • 2021-07-06
  • 2022-01-31
  • 2022-01-03
  • 2021-09-05
  • 2021-08-09
  • 2022-01-15
  • 2021-04-02
猜你喜欢
  • 2021-11-14
  • 2021-04-11
  • 2022-12-23
  • 2021-12-04
  • 2021-07-01
  • 2022-12-23
  • 2021-11-27
相关资源
相似解决方案