运行执行spark-sql 脚本文件,爆出对堆外内存溢出 GC overhead limit execeeded

错误如下图,先区分发生异常是executor端还是driver端,我遇到的问题是driver端,因为最后数据导出生成文件,数据会在driver端收集结果集。调节方式有两种,第一种正大driver-memory值,堆外内存计算公式默认是max(0.1*driver-memory ,384M),(executory的的对外内存计算公式也是一样);

第二种是调整参数(单位是M)

driver端是spark.yarn.driver.memoryOverhead=2048

executor端是:spark.yarn.executor.memoryOverhead

spark-sql 堆外内存溢出

 

相关文章:

  • 2021-06-18
  • 2022-01-06
  • 2021-07-13
  • 2022-12-23
  • 2021-09-17
  • 2021-09-26
  • 2021-05-30
  • 2021-12-06
猜你喜欢
  • 2022-12-23
  • 2022-02-17
  • 2021-09-08
  • 2021-10-28
  • 2022-12-23
  • 2021-11-21
  • 2021-07-13
相关资源
相似解决方案