上次安装了scala-2.11.8,这次安装spark-2.1.0版本

  1、下载spark-2.1.0

    打开terminal 进入当前用户目录 /home/sks

    wget http://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.6.tgz

    linux CentOS7 安装spark

  2、解压

    tar -zxvf spark-2.1.0-bin-hadoop2.6.tgz

     linux CentOS7 安装spark

 

    把spark-2.1.0-bin-hadoop2.6文件夹拷贝到 /usr/local/spark中,没有目录创建

    mkdir -p /usr/local/spark

    cp -r spark-2.1.0-bin-hadoop2.6 /usr/local/spark

    linux CentOS7 安装spark

  3、设置环境变量

    进入根目录:cd ~

    linux CentOS7 安装spark

    增加以下内容:

    

    export SPARK_HOME=/usr/local/spark/spark-2.1.0-bin-hadoop2.6
    export PATH=$PATH:$SPARK_HOME/bin

    linux CentOS7 安装spark

    输入:source .bash_profile 

    使环境变量快速生效

    linux CentOS7 安装spark

  4、验证安装成功

    输入spark-shell

    linux CentOS7 安装spark

    linux CentOS7 安装spark

 

    说明安装成功

 

   5、修改log4j

    看到上面提示信息中有warn

    linux CentOS7 安装spark

     由于Spark core的默认日志级别是warn,所以看到信息不多,现在将Spark安装目录的conf文件夹下

     首先进入conf目录,

    复制一个文件 cp log4j.properties.template log4j.properties

    然后进入log4j.properties 并将log4j.logger.org.apache.spark.repl.Main=INFO  (把原来的WARN改为INFO,保存即可)

    linux CentOS7 安装spark

 

    然后重新打开spark-shell,可以看到更多的打印信息

     linux CentOS7 安装spark

 

    

    

相关文章:

  • 2022-12-23
  • 2021-06-02
  • 2021-12-09
  • 2021-04-08
  • 2022-01-12
  • 2021-07-15
  • 2022-02-19
猜你喜欢
  • 2021-11-08
  • 2022-03-04
  • 2022-01-24
  • 2021-11-22
  • 2021-08-17
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案