Hadoop l4 MapReduce
Mapreduce核心思想
分治法
两阶段拆分(map) :将任务拆分成若干个简单的子任务并行处理
合并(reduce):对Map阶段的结果进行全局汇总
要保证每一个子问题拆分之后的互相独立的,不会出现互相依赖的问题
如何对付大数据处理场景?
拆分成多个没有互相依赖的子任务,并行计算
抽象编程模型
借鉴的函数方式语言的思想
map:一组数据进行重复的处理
reduce:对Map的中间结果进行结果整理
Mapruduce定义了map和reduce两个接口,分别为map:(k1;v1)->(k2;v2)reduce:(k2;[v2])->(k3;v3)
mapreduce处理的是<key,value>键值对
mapreduce介绍
分布式计算
将应用分解成许多的小部分,分配给多台计算机
mapreduce是一个分布式计算框架
优点:易于编程
良好的扩展性
高容错性
适合海量数据的离线处理
局限性(只能用于离线计算领域)
实时计算性能差
不能进行流式计算
mapruduce实例进程
三类
MRAppMaster 负责整个MR程序的过程调度以及状态协调
Maptask:负责map阶段的整个数据处理流程
Reducetask:负责reduce阶段的整个数据处理流程

mapreduce概述
一个编程模型的时候只能包含一个Map和一个reduce阶段
不允许多次Map之后进行reduce,只能多个Mapreduce串行
整个mapreduce的程序中,数据都是以Ky键值对的形式流转的
一个完整的MR程序需要用户代码和Hadoop代码结合在一起才行
由于Mapreduce计算引擎的弊端,当下企业已经很少使用Mapreduce进行直接编程
示例
PI计算



2 wordcount示例
map阶段:把输入的数据进行切割,全部标记为1,输出为<单词,1>
shuffle阶段:经过MR程序内部自带的默认的排序分组等功能,把key相同的单词作为一组数据构建新的Kv对
reduce阶段:处理shuffle完的一组组数据,改组数据就是该单词所有的键值对,对所有的1进行累加求和
MR流程

map流程
第一阶段:把输入目录下文件按照一定的标准逐个进行逻辑切片,形成切片规划。 默认
Split size = Block size (128M),每一个切片由一个MapTask处理。(getSplits)第二阶段:对切片中的数据按照一定的规则读取解析返回
<key, value>对。 默认是按行读取数据。key 是每一行的起始位置偏移量,value 是本行的文本内容。(TextInputFormat)第三阶段:调用
Mapper类中的map方法处理数据。 每读取解析出来的一个<key, value>,调用一次map方法第四阶段:按照一定的规则对Map输出的键值对进行分区(partition)。默认不分区,因为只有一个ReduceTask。 分区的数量就是ReduceTask运行的数量。
第五阶段:Map输出数据写入内存缓冲区,达到比例溢出到磁盘上。溢出(spill)的时候根据key进行排序(sort)。 默认根据key字典序排序。
第六阶段:对所有溢出文件进行最终的合并(merge),成为一个文件。

reduce流程
第一阶段:ReduceTask 会主动从 MapTask 复制拉取属于需要自己处理的数据。
第二阶段:把拉取来的数据,全部进行合并(merge),即把分散的数据合并成一个大的数据。再对合并后的数据排序。
第三阶段:对排序后的键值对调用 reduce 方法。键相等的键值对调用一次 reduce 方法。最后把这些输出的键值对写入到 HDFS 文件中。

shuffle机制
将Map端的无规则输出按照指定的规则打乱成具有一定规则的数据一边reduce端来接受处理
从Map端产生输出到reduce取得数据作为输入之前的过程称为shuffle
Map端Shuffle
Collect阶段:将MapTask的结果收集输出到默认大小为100M的环形缓冲区,保存之前会对key进行分区的计算,默认Hash分区。
Spill阶段:当内存中的数据量达到一定的阈值的时候,就会将数据写入本地磁盘,在将数据写入磁盘之前需要对数据进行一次排序的操作,如果配置了combiner,还会将有相同分区号和key的数据进行排序。
Merge阶段:把所有溢出的临时文件进行一次合并操作,以确保一个MapTask最终只产生一个中间数据文件。
Reducer端Shuffle
Copy阶段:ReduceTask启动Fetcher线程到已经完成MapTask的节点上复制一份属于自己的数据。
Merge阶段:在ReduceTask远程复制数据的同时,会在后台开启两个线程对内存到本地的数据文件进行合并操作。
Sort阶段:在对数据进行合并的同时,会进行排序操作,由于MapTask阶段已经对数据进行了局部的排序,ReduceTask只需保证Copy的数据的最终整体有效性即可。
