SPARK(计算引擎)

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法 

Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。

1 准备3 台机器  node01 node02  node03

搭建spark集群

2 以 node01 为主节点 

搭建spark集群

搭建spark集群

配置了 node02  node03 为从节点  node 01 spark-env 配置

搭建spark集群

启动命令 

搭建spark集群

访问节点http://node01:8080/

搭建spark集群

 

 

相关文章: