一、shuffle性能优化,配置项

new SparkConf().set("spark.shuffle.consolidateFiles", "true")

spark.shuffle.consolidateFiles:是否开启shuffle block file的合并,默认为false

spark.reducer.maxSizeInFlight:reduce task的拉取缓存,默认48m

spark.shuffle.file.buffer:map task的写磁盘缓存,默认32k

spark.shuffle.io.maxRetries:拉取失败的最大重试次数,默认3次

spark.shuffle.io.retryWait:拉取失败的重试间隔,默认5s

spark.shuffle.memoryFraction:用于reduce端聚合的内存比例,默认0.2,超过比例就会溢出到磁盘上

注:开启considation对磁盘io的优化

     

二、流程中调优

简单搞定spark shuffle性能优化

 

 

相关文章:

  • 2021-11-01
  • 2021-11-21
  • 2021-07-18
  • 2021-07-07
  • 2021-10-29
  • 2021-12-31
  • 2021-12-14
猜你喜欢
  • 2021-08-20
  • 2021-05-31
  • 2021-11-20
  • 2021-10-31
  • 2021-10-15
  • 2021-08-16
相关资源
相似解决方案