现象:hdp的集群没有配置spak的临时本地目录,默认在跑程序的时候会将中间过程的文件存放在本地的/tmp目录下

如果跑的spark数据量过大,就会导致/tmp下文件过大,最终导致根分区被占满,系统崩溃

解决办吧:修改spark的环境变量配置文件,在ambari界面上找到spark-env.sh的配置文件,添加参数

export SPARK_LOCAL_DIRS=spark.local.dir /disk1/sparktmp,/disk2/sparktmp

参考文档:https://blog.csdn.net/BDCHome/article/details/45396979

修改成功后,重新启动spark程序,然后再次测试

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-07-07
  • 2021-08-03
  • 2021-11-26
  • 2022-12-23
  • 2021-11-24
  • 2021-08-05
猜你喜欢
  • 2021-04-03
  • 2021-11-30
  • 2021-11-20
  • 2021-11-15
  • 2021-12-09
  • 2021-04-29
  • 2021-06-30
相关资源
相似解决方案