1. 确保自己的电脑安装了JAVA Development Kit JDK, 用来编译Java应用, 如 Apache Ant, Apache Maven, Eclipse. 这里是我们安装Spark的支持环境.

 查看自己是否安装了JDK: java -version

 这里我已经安装了所以显示的是JDK的版本信息, 如果没有安装则显示"The program java can be found in the following packages"  

 Linux下的Spark安装及使用

2. 安装好Java环境之后可以在Spark官网上下载自己要的Spark版本:  http://spark.apache.org/downloads.html 

 下载之后解压缩: tar -xf    spark-***-bin-hadoop**.tgz(对应着你下载的版本号)

3. 更新profile文件:  sudo vi ~/etc/profile  在后面加入: 

 

SPARK_HOME=/home/vincent/Downloads/spark 
#(解压后的包所在的路径, 这里我将解压后的Spark重新命名为spark了)
PATH=$PATH:${SPARK_HOME}/bin

4. 进入spark安装位置, 然后进入spark中的 bin 文件夹

运行: ./bin/spark-shell   运行scala

Linux下的Spark安装及使用

 运行: ./bin/pyspark    (python)

Linux下的Spark安装及使用

 5. 调整日志级别控制输出的信息量:

 在conf目录下将log4j.properties.template 复制为  log4j.properties, 然后找到 log4j.rootCategory = INFO, console

Linux下的Spark安装及使用

将INFO改为WARN (也可以设置为其他级别)

Linux下的Spark安装及使用

之后再打开shell输入信息量会减少.

 

相关文章:

  • 2021-12-29
  • 2021-10-29
  • 2022-02-24
  • 2022-12-23
  • 2022-01-01
  • 2021-12-31
  • 2022-12-23
  • 2022-01-09
猜你喜欢
  • 2022-12-23
  • 2021-04-24
  • 2021-09-01
  • 2021-11-22
  • 2021-12-28
  • 2021-12-11
  • 2021-08-10
相关资源
相似解决方案