MapReduce是一种编程模型,它是用于大规模数据集的并行运算,极大地方便了编程人员咋不会分布式并行变成的情况下,将自己的程序运行在分布式系统上它的优点有以下几点。
1、MapReduce 易于编程
它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的 PC 机器运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。 就是因为这个特点使得 MapReduce 编程变得非常流行。
2、良好的扩展性
当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
3、高容错性
MapReduce 设计的初衷就是使程序能够部署在廉价的 PC 机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上面上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由 Hadoop 内部完成的。
4、适合 PB 级以上海量数据的离线处理
这里加红字体离线处理,说明它适合离线处理而不适合在线处理。比如像毫秒级别的返回一个结果,MapReduce 很难做到。
MapReduce 虽然具有很多的优势,但是它也有不擅长的地方。这里的不擅长不代表它不能做,而是在有些场景下实现的效果差,并不适合 MapReduce 来处理,主要表现在以下几个方面。
1、实时计算。MapReduce 无法像 Mysql 一样,在毫秒或者秒级内返回结果。
2、流式计算。流式计算的输入数据时动态的,而 MapReduce 的输入数据集是静态的,不能动态变化。这是因为 MapReduce 自身的设计特点决定了数据源必须是静态的。
3、DAG(有向图)计算。多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce 并不是不能做,而是使用后,每个MapReduce 作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。
MapReduce的原理总之就是一句话----分久必合,合久必分
Map和Reduce是分开的两个部分,Map不是我们所学习的Map集合而是代表了切割,而Reduce就是合并,以下就是MapReduce的运行原理图
首先我们在磁盘中获取大量数据源后先对数据源进行清洗把一些影响运行速度的数据清理掉,也就是俗称的脏数据,然后我们把这些清理过的数据进行切片,然后将其放入Map中处理,接下来buffer就会进行计算,计算的过程在内存中进行,这里是使用buffer in memory处理,这里buffer处理时,会使用70%的地方来计算,30%用来缓冲,并在过程中由partitions定义一个key和对应的value。然后将切割好的数据进行一次小的聚合(根据key分区并计算),然后将这些聚合好的相同key的数据还有没有聚合在一块的数据进行运输(shuffle),把这些数据运输到Reduce,其他key的数据传输到其他Reduce中进行处理,Reduce再将这些同一key的数据进行一次大聚合并存入磁盘中,这样就会让之前没有规律的数据变得有规律,我们也就可以从中筛选出我们想要的数据来。
如果还是不理解的话也可以去看这篇文章
https://www.jianshu.com/p/461f86936972