spark Job执行流程

  1. 从hdfs/local/集合中读取数据,放到worker的内存中。
  2. 然后,work节点中的exector的task,再针对hdfs对应的linesRDD,依此进行我们的flatmap/map/reduceByKey等操作。

spark Job执行流程

相关文章:

  • 2022-12-23
  • 2021-06-17
  • 2021-05-04
  • 2021-04-05
  • 2022-12-23
  • 2022-01-29
  • 2021-06-29
猜你喜欢
  • 2021-11-25
  • 2021-04-30
  • 2021-11-21
  • 2021-08-27
  • 2021-12-23
  • 2022-02-10
相关资源
相似解决方案