spark Job执行流程
- 从hdfs/local/集合中读取数据,放到worker的内存中。
- 然后,work节点中的exector的task,再针对hdfs对应的linesRDD,依此进行我们的flatmap/map/reduceByKey等操作。

相关文章:
-
2022-12-23
-
2021-06-17
-
2021-05-04
-
2021-04-05
-
2022-12-23
-
2022-01-29
-
2021-06-29
猜你喜欢
-
2021-11-25
-
2021-04-30
-
2021-11-21
-
2021-08-27
-
2021-12-23
-
2022-02-10
相关资源
-
下载
2023-02-12
-
下载
2023-01-27
-
下载
2023-03-06