在写Spark程序是遇到问题

Driver stacktrace:

      at org.apache.spark.scheduler.DAGScheduler.orgschedulerDAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1283)

 

这个原因是因为数据过大,而中断(我的天,坑死我了,只有一万条数据啊)

相关文章:

  • 2021-09-20
  • 2021-04-15
  • 2021-05-28
  • 2021-09-25
  • 2021-06-18
  • 2021-06-07
  • 2021-08-17
  • 2022-12-23
猜你喜欢
  • 2021-07-03
  • 2021-10-12
  • 2021-05-31
  • 2021-12-25
  • 2021-04-14
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案