pipe(command, [envVars])
对于每个分区,都执行一个perl或者shell脚本,返回输出的RDD

1
2
3
4
5
6
7
8
9
10
11
scala> val rdd = sc.makeRDD(List("wangguo","yangxiu","xiaozhou","kangkang"),3)
rdd: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[9] at makeRDD at <console>:24

scala> rdd.pipe("/opt/test/spark/pipe.sh").collect
res4: Array[String] = Array(wangcen, wangguohehe, wangcen, yangxiuhehe, wangcen, xiaozhouhehe, kangkanghehe)

scala> val rdd = sc.makeRDD(List("wangguo","yangxiu","xiaozhou","kangkang"),4)
rdd: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[11] at makeRDD at <console>:24

scala> rdd.pipe("/opt/test/spark/pipe.sh").collect
res5: Array[String] = Array(wangcen, wangguohehe, wangcen, yangxiuhehe, wangcen, xiaozhouhehe, wangcen, kangkanghehe)

有同学问我,怎么用Spark来调用外部程序,我想到了pipe可以做这个事情。文章封面图就是PySpark的实现方案,其中就用到了pipe这个机制。

同学的需求和问题如下:

  1. 他有2万个文件,每个10G,放在HDFS上了,总量200TB的数据需要分析。
  2. 分析程序本身已经写好了,程序接受一个参数:文件路径
  3. 如何用spark完成集群整个分析任务?

我灵机一动 想到了Spark Pipe 应该可以完成。查了一下资料,归纳和整理如下:

总的来说就是Spark有一个pipe的编程接口,用的是Unix的标准输入和输出,类似于 Unix的 | 管道,例如: ls | grep ^d

第一步:创建RDD

这一个步骤主要是罗列输入的任务,即,包含哪些文件。

// 此处文件的List可以从另一个HDFS上的文件读取过来
val data = List("hdfs://xxx/xxx/xxx/1.txt","hdfs://xxx/xxx/xxx/2.txt",...)
val dataRDD = sc.makeRDD(data) //sc 是你的 SparkContext

第二步:创建一个Shell脚本启动分析任务

我们已经有了RDD了,那么接下来写一个启动launch.sh脚本来启动我们的分析程序

#!/bin/sh
echo "Running launch.sh shell script..."
while read LINE; do
   echo "启动分析任务, 待分析文件路径为: ${LINE}"
   bash hdfs://xxx/xxx/xx/analysis_program.sh ${LINE}
done

第三步:RDD对接到启动脚本

下面的步骤就是整合步骤了

val scriptPath = "hdfs://xxx/xxx/launch.sh"
val pipeRDD = dataRDD.pipe(scriptPath)
pipeRDD.collect()

 

总结一下,

  1. dataRDD里面包含了我们要分析的文件列表,这个列表会被分发到spark集群,
  2. 然后spark的工作节点会分别启动一个launch.sh脚本,接受文件列表作为输入参数,
  3. launch.sh脚本的循环体用这些文件列表启动具体的分析任务

这样之后的好处是:

  1. 既有程序analysis_program.sh 不需要任何修改,做到了重用,这是最大的好处
  2. 使用集群来做分析,速度比以前更快了(线性提升)
  3. 提高了机器的利用率(以前可能是一台机器分析)

 

附:如何用ansible 搭建一个standalone的spark集群 ible-spark-cluster#deploying-spark-standalone

 

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-04-23
  • 2022-01-19
  • 2021-11-21
  • 2021-09-30
猜你喜欢
  • 2022-03-09
  • 2021-07-28
  • 2022-12-23
  • 2021-06-12
  • 2021-10-21
  • 2022-12-23
  • 2021-06-15
相关资源
相似解决方案