1.首先打开spark
命令:
bin/spark-shell
2.在spark中创建一个文件夹,在里面创建2个TXT文件
3 执行命令 sc 是上下文执行文件 textFile(“input”)是指定文件夹,.flatMap(.split(" ")) 是进行分组 .map((,1))是一种转化结构,.reduceByKey(+)是分组聚合 .collect打印结果
使用spark对文件内容进行分组
scala> sc .textFile(“input”).flatMap(.split(" ")).map((,1)).reduceByKey(+).collect
使用spark对文件内容进行分组
使用spark对文件内容进行分组

相关文章:

  • 2017-12-08
  • 2021-11-19
  • 2022-12-23
  • 2022-12-23
  • 2021-12-03
  • 2021-07-12
  • 2021-10-06
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-09-25
  • 2022-02-19
  • 2022-12-23
相关资源
相似解决方案