MapReduce核心原理初解

x33g5p2x  于2020-09-30 发布在 MapReduce  
字(32.7k)|赞(0)|评价(0)|浏览(439)

1.MapReduce介绍

1.1定义

MapReduce思想在生活中处处可见。或多或少都曾接触过这种思想。MapReduce的思想核心是“分而治之”,适用于大量复杂的任务处理场景(大规模数据处理场景)。

  • Map负责“”,即把复杂的任务分解为若干个简单的任务来并行处理。可以拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系

  • Reduce负责“”,即对map阶段的结果进行全局汇总。

  • MapReduce运行在yarn集群

    • RecourceManager
    • NodeManager

    这两个阶段合起来正是MapReduce思想的体现

使用比较通俗的语言进行解释MapReduce就是:

  • 我们要数图书馆的所有书,你数1号书架,我数2号书架。这就是Map。我们人越多,数书就更快。
  • 现在我们到一起,把所有人的统计数加在一起。这就是Reduce。

1.2 MapReduce优缺点

  1. 优点:

    1. **MapReduce易于编程。**它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得MapReduce编程变得非常流行
    2. 良好的扩展性。当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力
    3. 高容错性。MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如,其中一台机器挂了,他可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的
    4. 适合PB级以上的海量数据的离线处理,说明他适合离线处理而不适合在线处理。比如像毫秒级别的返回一个结果,MapReduce很难做到
  2. 缺点

    MapReduce不擅长做实时计算、流式计算】DGA(有向图)计算。

    1. 实时计算。MapReduce无法向mySql一样,在毫秒或者秒级内返回结果
    2. 流式计算。流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的
    3. DAG(有向无环图)。多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成 大量的磁盘IO,导致性能非常低下

2.MapReduce设计构思

MapReduce是一个分布式运算程序的编程框架。核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在Hadoop集群上

MapReduce设计并提供了统一的计算框架,为程序员隐藏了绝大多数系统层面的处理细节。为程序员提供了一个抽象和高层的编程接口和框架。程序员仅需要关心其应用层的具体计算问题,仅需编写少量的处理应用本身计算问题的程序代码。如何具体完成这个并行计算任务所相关的诸多系统层细节被隐藏起来,交给计算框架去处理

Map和Reduce为程序员提供了一个清晰的接口抽象描述。MapReduce中定义了如下的Map和Reuce两个抽象的编程接口,由用户去编程实现Map和Reduce,MapReduce处理的数据类型是<key,value>键值对。

  • Map:(k1,v1)-->[(k2,v2)]
  • Reduce:(k2,[v2])--->[(k3,v3)]

一个完整的MapReduce程序在分布式运行时有三类实例进程:

  1. MRAppMaster负责整个程序的过程调度及装填协调
  2. MapTask负责整个map阶段的整个数据处理流程
  3. ReduceTask负责Reduce阶段的整个数据处理流程

3.MapReduce编程规范

MapReduce 的开发一共有八个步骤, 其中 Map 阶段分为 2 个步骤,Shuffle 阶段 4 个步骤,Reduce 阶段分为 2 个步骤

  1. Map阶段

    • 设置 InputFormat 类, 将数据切分为 Key-Value**(K1和V1)** 对, 输入到第二步
    • 自定义 Map 逻辑, 将第一步的结果转换成另外的 Key-Value(K2和V2) 对, 输出结果
  2. Shuffle阶段

    • 对输出的 Key-Value 对进行分区
    • 对不同分区的数据按照相同的 Key 排序
    • (可选) 对分组过的数据初步规约, 降低数据的网络拷贝
    • 对数据进行分组, 相同 Key 的 Value 放入一个集合中
  3. Reduce阶段

    • 对多个 Map 任务的结果进行排序以及合并, 编写 Reduce 函数实现自己的逻辑, 对输入的 Key-Value 进行处理, 转为新的 Key-Value(K3和V3)输出
  • 设置 OutputFormat 处理并保存 Reduce 输出的 Key-Value 数据

4.WordCound案例

需求:在一堆给定的文本文件中统计输出每一个单词出现的总次数

分析:

WordCount案例

  1. 数据准备,保存为txt文件
   hello,world,hadoop
   hive,sqoop,flume,hello
   kitty,tom,jerry,world
   hadoop
  1. Mapper
   public class WordCountMapper extends Mapper<LongWritable, Text,Text,LongWritable> { //运用的是自己的类型
       /**
        * 四个泛型解释
        * KEYIN k1的类型
        * VALUEIN v1类型
        *
        * KEYOUT k2的类型
        * VALUEOUT v2的类型
        */
   
       //map方法 将k1 和 v1 转为 k2 和 v2
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           /**
            * 参数:
            * key 行偏移量
            * value 每一行的文本数据
            * context 表示上下文对象
            */
   
           /**
            * 如何将k1和v1转为k2和v2?
            * k1(行偏移量)       v1(数据)
            * 0    			hello,word,hadoop
            * 15   			hdfs,hive,hello
            * .......
            *
            * k2       v2
            * hello    1
            * word     1
            * hadoop   1
            * hive     1
            * .....
            *
            */
   
           Text text = new Text();
           LongWritable longWritable = new LongWritable();
           //1.将一行的文本数据进行拆分
           String[] split = value.toString().split(",");
   
           //2.遍历数组,组装k2和 v2
           for (String word : split) {
               //3.将k2 和 v2 写如上下文
               text.set(word);
               longWritable.set(1);
               context.write(text,longWritable);
           }
   
       }
   }
   
  1. Reducer
   public class WordCountReducer extends Reducer<Text, LongWritable,Text,LongWritable> {
       /**
        * 四个泛型解释
        * KEYIN K2类型
        * VALUEIN v2类型
        *
        * KEYOUT K3类型
        * VALUEOUT V3类型
        */
   
       @Override
       protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
           //reduce 方法作用:将新k2 和 v2 转化为 k3 和 v3 ,将 k3 和 v3 写入上下文对象
   
           /**
            *参数
            * key 新k2
            * values 集合 新v2
            * context 表示上下文对象
            *
            * 如何将新的 k2 和 v2 转为  k3 和 v3?
            * 新k2      v2
            * hello    <1,1,1,1>
            * word     <1,1>
            * hadoop   <1>
            *.............
            * k3       v3
            * hello    4
            * word     3
            * hadoop   1
            */
   
           LongWritable longWritable = new LongWritable();
   
           //1. 遍历集合,将集合中的数字相加,得到v3
           long count = 0;
           for (LongWritable value : values){
               count += value.get();
           }
           //2.将K3和V3写入上下文中
           longWritable.set(count);
           context.write(key,longWritable);
   
   
   
       }
   }
   
  1. 定义主类,描述Job,并提交
   public class JobMain extends Configured implements Tool {
   
       //该方法用于指定一个job任务
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           // 注意:同一个任务的代码中的Configuration必须是同一个
           Job job = Job.getInstance(super.getConf(), "wordcount");
           
           //如果打包运行出错,需要加如下代码
           job.setJarByClass(JobMain.class);
   
           //2.配置job任务对象(八个步骤)
           // 第一步:指定文件的读取方式和读取路径
           job.setInputFormatClass(TextInputFormat.class);//读文件的方式使用InputFormat的子类TextInputFormat
           //指定读取源文件对象地址。
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\WordCount\\wordcount.txt"));
   		
           // 第二步:指定Map阶段的处理方式和数据类型
           job.setMapperClass(WordCountMapper.class);//指定map阶段的处理方式
           job.setMapOutputKeyClass(Text.class);//设置map阶段k2的类型
           job.setMapOutputValueClass(LongWritable.class);//设置map阶段v2的类型
   
   //       第三,四,五,六,shuffle阶段暂不做处理,此处采用默认方式
   
           // 第七步:指定Reduce阶段的处理方式和数据类型
           //指定Reduce阶段的处理方式和数据类型
           job.setReducerClass(WordCountReducer.class);
           //设置k3类型
           job.setOutputKeyClass(Text.class);
           //设置v3的类型
           job.setOutputValueClass(LongWritable.class);
   
           // 第八步:设置输出类型和输出路径
           job.setOutputFormatClass(TextOutputFormat.class);
           // 设置输出路径,会自动创建不存在的目录,如果目录已存在会报错
           Path path = new Path("file:///G:\\学习\\maven\\src\\main\\java\\WordCount\\OutWordCount");
           TextOutputFormat.setOutputPath(job,path);
   
           // 作用:当目标目录存在时,将目录删除
           // 获取FileSystem
           FileSystem fileSystem = FileSystem.get(new URI("file:///G:\\学习\\maven\\src\\main\\java\\WordCount"), new Configuration());
           // 判断目标目录是否存在
           boolean blog = fileSystem.exists(path);
           if (blog){
               //删除目标目录
               // 参数1:路径 参数2:是否递归删除
               fileSystem.delete(path,true);
           }
           
           //3.等待任务结束
           boolean b1 = job.waitForCompletion(true);
           return b1 ? 0 : 1;//根据返回结果判断任务是否正常
       }
   
       public static void main(String[] args) throws Exception {
           //配置文件对象
           Configuration conf = new Configuration();
           //启动job任务
           // 返回值run记录的是任务执行的状态
           int run = ToolRunner.run(conf, new JobMain(), args);
           System.exit(run);//退出任务,任务失败时以失败退出,任务成功时以成功退出
       }
   }
   

注:实际开发中会将项目打包成jar包放入集群上面运行,只需要将输入输出路径改为集群地址即可

5.MapReduce运行模式

5.1本地运行模式

  1. MapReduce程序是被提交到LocalJobRunner在本地以单进程的形式运行

  2. 处理的数据即输出结果可以在本地文件系统,也可以在hdfs上

  3. 怎样实现本地运行?

    写一个程序,不要带集群的配置文件,本质是程序的conf中是否有mapreduce.framework.name=local 以及yarn.resourcemanager.hostname=local参数

  4. 本地模式非常便于业务逻辑的debug,只要偶在idea中打断点即可

configuration.set("mapreduce.framework.name","local");
configuration.set("yarn.resourcemanager.hostname","local");
TextInputFormat.addInputPath(job,new Path("file:///F:\\wordcount\\input"));
TextOutputFormat.setOutputPath(job,new Path("file:///F:\\wordcount\\output"));

注:本地运行会输出警告信息,只需要在项目的resources目录下创建log4j.properties文件,并写入如下内容即可

# Configure logging for testing: optionally with log file

#log4j.rootLogger=debug,appender
log4j.rootLogger=info,appender  
#log4j.rootLogger=error,appender

#\u8F93\u51FA\u5230\u63A7\u5236\u53F0
log4j.appender.appender=org.apache.log4j.ConsoleAppender  
#\u6837\u5F0F\u4E3ATTCCLayout
log4j.appender.appender.layout=org.apache.log4j.TTCCLayout

5.2集群运行模式

  1. 将MapReduce程序交给Yarn集群,分发到很多的节点上并发执行

  2. 处理的数据和输出结果应位于hdfs文件系统

  3. 提交集群的实现步骤:将程序打包jar,然后在集群的任意一个节点上使用hadoop命令执行

   hadoop jar jar包路径名字 主类的全路径名

6.MapReduce分区

  • 在MapReduce中,通过我们制定分区,会将同一个分区的数据发送到同一个Reduce当中进行处理
  • 例如:为了数据的统计,可以把一批类似的数据发送到同一个Reduce当中,在同一个Reduce当中统计相同类型的数据,就可以实现类似的数据分区和统计等
  • 其实就是相同类型的数据,有共性的数据,送到一起处理
  • Reduce当中默认的分区只要一个

需求:将以下数据进行分开

详细数据参见partition.csv 这个文本文件,其中第五个字段表示开奖结果数值,现在需求将15
以上的结果以及15以下的结果进行分开成两个文件进行保存

  1. 准备文件:

    partition.csv

  2. Mapper

   public class PartitionMapper extends Mapper<LongWritable, Text,Text, NullWritable> {
       /**
        * k1 行偏移量,LongWritable
        * v1 行文本数据 Text
        *
        * k2 行文本数据 Text
        * v2 NullWritable
        */
   
       //map方法将k1和v1转为k2和v2
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           //1.自定义计数器,方式1
           Counter counter = context.getCounter("MR_COUNTER","partition_counter");
           //每次执行该方法,则计数器变量的值加1
           counter.increment(1L);
           /**
            * 结果
            * MR_COUNTER
            * 		partition_counter=15213
            */
   
           context.write(value,NullWritable.get());
       }
   
   }
   
  1. 自定义Partitioner

    主要的逻辑就在这里,通过Partition将数据发送到不同的Reducer

   public class MyPartition extends Partitioner<Text, NullWritable> {
   
       /**
        * 1. 定义分区规则
        * 2. 返回对应的分区编号
        * 返回值只是一个分区的标记,标记所有相同的数据去指定的分区
        * @param text K2
        * @param nullWritable V2
        * @param i ReduceTask个数
        * @return 0
        */
       @Override
       public int getPartition(Text text, NullWritable nullWritable, int i) {
           //1. 拆分文本数据k2,获取中奖字段的值
           String[] split = text.toString().split("\t");
           String numstr = split[5];
           //2. 判断中奖字段的值和15的关系,然后返回对应的分区编号
           if(Integer.parseInt(numstr) > 15){
               return 1;
           }else {
               return 0;
           }
       }
   }
  1. Reduce
   public class partitionReducer extends Reducer<Text, NullWritable,Text,NullWritable> {
       public static enum Counter{
           MY_INPUT_RECOREDS,MY_INPUT_BYTES
       }
       @Override
       protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
           //2.自定义计数器,方式2:使用枚举定义计数器
           context.getCounter(Counter.MY_INPUT_RECOREDS).increment(1L);
           /**
            * 结果:
            * partition.partitionReducer$Counter
            * 		MY_INPUT_RECOREDS=15213
            */
   
           context.write(key,NullWritable.get());
       }
   }
   
  1. JobMain

    主类中设置分区类和ReduceTask个数

   public class JobMain extends Configured implements Tool {
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           Job job = Job.getInstance(super.getConf(),"partition");
           //2.对job任务进行配置
   
           //1设置输入类和输入的路径
           job.setInputFormatClass(TextInputFormat.class);
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\partition\\partition.csv"));
           //2设置mapper类和数据类型
           job.setMapperClass(PartitionMapper.class);
           job.setMapOutputKeyClass(Text.class);
           job.setMapOutputValueClass(NullWritable.class);
           
           
           //3.shuffle 分区,排序,规约,分组
           // 设置分区类,以及reduceTask的个数,注意reduceTask的个数要与分区数保持一致
           job.setPartitionerClass(MyPartition.class);//自定义分区规则,其他采用默认
    
           
           //7.指定Reducer和数据类型
           job.setReducerClass(partitionReducer.class);
           job.setOutputValueClass(Text.class);
           job.setOutputValueClass(NullWritable.class);
           
           //设置reduceTask的个数
           job.setNumReduceTasks(2);
           
           //8.指定输出类和输出路径
           job.setOutputFormatClass(TextOutputFormat.class);
           TextOutputFormat.setOutputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\partition\\partitionOUT"));
           //3.等待任务结束
           boolean b = job.waitForCompletion(true);
           return b?0:1;
       }
   
       public static void main(String[] args) throws Exception {
           Configuration conf = new Configuration();
   //        1.启动job任务
           int run = ToolRunner.run(conf, new JobMain(), args);
           //2.退出进程
           System.exit(run);
       }
   }
   

7.MapReuduce中的计数器

计数器是收集作业统计信息的有效手段之一,用于质量控制或应用,计数器还可辅助诊断系统故障。如果需要将日志信息传输到map或reduce任务,更好的方法通常是看能否用一个计数器值来记录某一特定时间的发生。对于大型分布式作业而言,使用计数器更为方便。除了因为获取计数器值比输出日志更方便,还有根据计数器值统计特定事件的发生次数要比分析一堆日志文件容易得多

Hadoop为每个作业维护若干内置计数器,以描述多项指标。例如,某些计数器记录已处理的字节数和记录数,使用户可监控已处理的输入数据量和已产生的输出数据量。

hadoop内置计数器列表

MapReduce任务计数器org.apache.hadoop.mapreduce.TaskCounter
文件系统计数器org.apache.hadoop.mapreduce.FileSystemCounter
FileInputFormat计数器org.apache.hadoop.mapreduce.lib.input.FileInputFormatCounter
FileOutputFormat计数器org.apache.hadoop.mapreduce.lib.output.FileOutputFormatCounter
作业计数器org.apache.hadoop.mapreduce.JobCounter

每次mapreduce执行完成之后,我们都会看到一些日志记录出来,其中最重要的一些日志记
录如下截图

所有的这些都是MapReduce的计数器的功能,既然MapReduce当中有计数器的功能,我们如
何实现自己的计数器???

需求:以以上分区代码为案例,统计map接收到的数据记录条数

  1. API

    • 1
     采用枚举的方式统计计数
     enum MyCounter{MALFORORMED,NORMAL}
     //对枚举定义的自定义计数器加1
     context.getCounter(MyCounter.MALFORORMED).increment(1);
  • 2
     采用计数器组、计数器名称的方式统计
     context.getCounter("counterGroup", "countera").increment(1);
     组名和计数器名称随便起,但最好有意义。
  1. 案例实操

    日志清洗(数据清洗)

7.1实现计数器方式1

定义计数器,通过context上下文队形可以获取计数器,进行记录,通过context上下文对象,在map端使用计数器进行统计

实现代码如下:

public class PartitionMapper  extends
Mapper<LongWritable,Text,Text,NullWritable>{
    //map方法将K1和V1转为K2和V2
    @Override
    protected void map(LongWritable key, Text value, Context context) 
throws Exception{
        // 参数1:计数器的类型 参数2:计数器变量的名字
        Counter counter = context.getCounter("MR_COUNT", 
"MyRecordCounter");
        // 当map方法执行一次,就会给increment变量 +1
        counter.increment(1L);
        context.write(value,NullWritable.get());
   }
}

运行程序之后就可以看到我们自定义的计数器在map阶段读取了7条数据

MR_COUNTER
		partition_counter=15213

7.2实现计数器方式2

通过enum枚举类型来定义计数器,统计reduce端数据的输入的key有多少

实现代码

public class partitionReducer extends Reducer<Text, NullWritable,Text,NullWritable> {
    // 定义枚举类
    public static enum Counter{
        // 输入记录数,输入字节数
        MY_INPUT_RECOREDS,MY_INPUT_BYTES
    }
    @Override
    protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
        //2.自定义计数器,方式2:使用枚举定义计数器
        context.getCounter(Counter.MY_INPUT_RECOREDS).increment(1L);
        /**
         * 结果:
         * partition.partitionReducer$Counter
         * 		MY_INPUT_RECOREDS=15213
         */

        context.write(key,NullWritable.get());
    }
}

8.MapReduce排序和序列化

  • 序列化是指把结构化对象转化为字节流
    • 序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议),以便于存储(持久化)和网络传输
  • 反序列化是序列化的逆过程,把字节流转为结构化对象。当要在进程间传递对象或持久化对象的时候,就需要序列化对象成字节流,反之当要接收到或从磁盘读取的字节流转换为对象,就要进行反序列化
  • **Java的序列化是一个重量级序列化框架,**一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制Writable,精简高效,不用像java对象类一样传输多层的父子关系,需要哪个属性就传输哪个属性值,大大的减少了网络传输的开销
  • writable是hadoop的序列化格式,hadoop定义了这样一个writable接口。一个类要支持可序列化就只需要实现这个接口即可
  • 另外writable有一个子接口是writableComparable,writableComparable是既可以实现序列化,也可以对key进行比较,我们这里可以通过自定义key实现writableComparable来实现我们的排序功能

8.1 为什么序列化对Hadoop很重要

  • 因为Hadoop在集群之间进行通讯或者RPC调用的时候,需要序列化,而且要求序列化要快,且体积要小,占用带宽要小。所以必须理解Hadoop的序列化机制
  • 序列化和反序列化在分布式数据领域中经常出现:进程通信和永久存储。然而Hadoop中各个节点的通信是通过远程调用RPC实现的,那么RPC序列化要求具有以下的特点
    1. 紧凑:紧凑的格式能让我们充分利用网络带宽,而带宽是数据中心最稀缺的资源
    2. 快速:进程通信形成了分布式系统的骨架,所以需要尽量减少序列化和反序列化的性能开销,这是最基本的
    3. 可扩展:协议为了满足新的需求变化,所以控制客户端和服务器的过程中,需要直接引进相应的协议,这些是新协议,原序列化方式能支持新的协议报文
    4. 互操作:能支持不同语言写的客户端和服务端进行交互

8.2 常用数据序列化类型

常用的数据类型对应的Hadoop数据序列化类型

Java类型Hadoop Writable类型
booleanBooleanWritable
byteByteWritable
intIntWritable
floatFloatWritable
longLongWritable
doubleDoubleWritable
stringText
mapMapWritable
arrayArrayWritable

8.2案例:shuffle 排序和序列化

逻辑思维:

1-Shuffle阶段的排序和序列化

  1. 准备数据
   a 1
   a 9
   b 3
   a 7
   b 8
   b 10
   a 5
  1. sortBean
   public class SortBean implements WritableComparable<SortBean> {
       private String word;
       private int num;
   
       public String getWord() {
           return word;
       }
   
       public void setWord(String word) {
           this.word = word;
       }
   
       public int getNum() {
           return num;
       }
   
       public void setNum(int num) {
           this.num = num;
       }
   
   
       @Override
       public String toString() {
           return  word + '\t' + num;
       }
   
       //实现比较器,指定排序规则
   
       /**
        * 规则:
        *  第一列(word)按照字典顺序进行排序
        *  第一列相同的时候,第二列(num)按照升序进行排序
        * @param sortBean 是你传进来的数据
        * @return
        */
       @Override
       public int compareTo(SortBean sortBean) {
           //先对第一列进行排序  word列
           int result = this.word.compareTo(sortBean.word);//这里的compareTo方法是字符串自带的方法
           //如果第一类相同,则按照第二列进行排序   num列
           if (result == 0){
               return this.num - sortBean.num;
           }
           return result;
       }
   
       //实现序列化
       @Override
       public void write(DataOutput dataOutput) throws IOException {
           dataOutput.writeUTF(word);
           dataOutput.writeInt(num);
       }
   
       //实现反序列化
       @Override
       public void readFields(DataInput dataInput) throws IOException {
           this.word = dataInput.readUTF();
           this.num = dataInput.readInt();
       }
   }
   
  1. mapper
   public class SortMapper extends Mapper<LongWritable, Text,SortBean, NullWritable> {
       /**
        * map方法将k1和v1转为K2和v2
        *
        * k1   v1
        * 0    a 3
        * 5    b 7
        * -------
        * k2               v2
        * sortBean(a 3)    NullWritable
        * sortBean(b 7)    NullWritable
        */
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
   
           //1.将行文本数据v1拆分,并将数据封装到SortBean对象,就可以得到k2
           String[] split = value.toString().split(" ");//注:linux中表示空格为\t
   
           SortBean sortBean = new SortBean();
           sortBean.setWord(split[0]);
           sortBean.setNum(Integer.parseInt(split[1]));
   
           //2.将k2和v2写入上下文中
           context.write(sortBean,NullWritable.get());
       }
   }
  1. reduce
   public class SortReducer extends Reducer<SortBean, NullWritable,SortBean,NullWritable> {
       //reduce 将新的k2和 v2 转为 k3 和 v3
       @Override
       protected void reduce(SortBean key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
           context.write(key,NullWritable.get());
       }
   }
   
  1. JobMain
   public class JobMain extends Configured implements Tool {
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job对象
           Job job = Job.getInstance(super.getConf(), "mapreduce_SortBean");
   
           //2.配置job任务(8步)
   
           //1.设置输入类和输入的路径
           job.setInputFormatClass(TextInputFormat.class);
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\mapreduce_demo\\sortBean.txt"));//如果指定目录,则会读取文件夹内所有文件
           //2.设置mapper的类和数据类型
           job.setMapperClass(SortMapper.class);
           job.setMapOutputKeyClass(SortBean.class);
           job.setMapOutputValueClass(NullWritable.class);
           //shuffle阶段暂不做调整
           //7.设置reducer类和类型
           job.setReducerClass(SortReducer.class);
           job.setOutputKeyClass(SortBean.class);
           job.setOutputValueClass(NullWritable.class);
           //8.设置输出路径
           job.setOutputFormatClass(TextOutputFormat.class);
           TextOutputFormat.setOutputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\mapreduce_demo\\SortBean_out"));
   
   
           //3 等待任务结束
           boolean b = job.waitForCompletion(true);
           return b?0:1;
       }
   
       public static void main(String[] args) throws Exception {
           Configuration conf = new Configuration();
   
           //启动job任务
           int run = ToolRunner.run(conf,new JobMain(),args);
   
           System.exit(run);
       }
   }
   

8.3 自定义bean对象实现序列化(Writable)的注意事项

  1. 必须实现writable接口

  2. 反序列化时,需要反射调用空参构造函数,所以必须有空参构造

   public FlowBean(){
   	super();
   }
  1. 重写序列化方法
   @Override
   public void write (DataOutput out)throws IOException{
   	out.writeLong(upFlow);
   	out.writeLong(downFlow);
   	out.writeLong(sumFlow);
   }
  1. 重写反序列化方法
   @Override
   public void readFields(DataInput in)throws IOException{
   	upFlow = in.readLong();
   	downFlow = in.readLong();
   	sumFlow = in.readLong();
   }
  1. 注意反序列化的顺序和序列化的顺序完全一致

  2. 要想把结果显示在文件中,需要重写toString(),可用"\t"分开,方便后续用

  3. 如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为MapReduce框中的shuffle过程一定会对key进行排序

   @Override
   public int compareTo(FlowBean o){
   	//倒序排序。从大到小
   	return this.sumFloe > o.getSumFloe() ? -1 :1;
   }

9.规约Combiner

概念:每一个map都可能会产生大量的本地输出,Combiner的作用就是对map端的输出先做一次合并,以减少在map和reduce节点之间的数据传输量,以提高网络IO性能,是MapReduce的一种优化手段之一

  • combiner是MR程序中Mapper和Reducer之外的一种组件
  • combiner组件的父类就是Reducer
  • combiner和reducer的区别在于运行的位置
    • combiner是在每一个maptask所在的节点运行
    • Reducer是接收全局所有的Mapper输出结果
  • combiner的意义就是对每一个maptask的输出进行局部汇总,以减少网络传输量

实现步骤:

  1. 自定义一个combiner继承Reducer,重写reducer
  2. 在job中设置job.setCombinerClass(CustomCombiner.class)

combiner能够应用的前提是不能影响最终的业务逻辑,而且,combiner的输出kv应该和reducer的输入kv类型要对应

9.1案例:统计每个单词出现的个数

  1. 准备文件
   hello,world,hadoop
   hive,sqoop,flume,hello
   kitty,tom,jerry,world
   hadoop
  1. 自定义MyCombiner
   public class MyCombiner extends Reducer<Text, LongWritable, Text,LongWritable> {
   
       /**
        * key hello
        * values <1,1,1,1>
        * @param key
        * @param values
        * @param context
        * @throws IOException
        * @throws InterruptedException
        */
       @Override
       protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
           //1. 遍历集合,将集合中的数字相加,得到v3
           long count = 0;
           for (LongWritable value : values){
               count += value.get();
           }
           //2.将K3和V3写入上下文中
           context.write(key,new LongWritable(count));
       }
   }
  1. mapper
   public class WordCountMapper extends Mapper<LongWritable, Text,Text,LongWritable> { //运用的是自己的类型
       /**
        * 四个泛型解释
        * KEYIN k1的类型
        * VALUEIN v1类型
        *
        * KEYOUT k2的类型
        * VALUEOUT v2的类型
        */
   
       //map方法 将k1 和 v1 转为 k2 和 v2
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           /**
            * 参数:
            * key 行偏移量
            * value 每一行的文本数据
            * context 表示上下文对象
            */
   
           /**
            * 如何将k1和v1转为k2和v2?
            * k1       v1
            * 0    hello,word,hadoop
            * 15   hdfs,hive,hello
            * .......
            *
            * k2       v2
            * hello    1
            * word     1
            * hadoop   1
            * hive     1
            * .....
            *
            */
   
           Text text = new Text();
           LongWritable longWritable = new LongWritable();
           //1.将一行的文本数据进行拆分
           String[] split = value.toString().split(",");
   
           //2.遍历数组,组装k2和 v2
           for (String word : split) {
               //3.将k2 和 v2 写如上下文
               text.set(word);
               longWritable.set(1);
               context.write(text,longWritable);
           }
   
       }
   }
   
  1. reducer
   public class WordCountReducer extends Reducer<Text, LongWritable,Text,LongWritable> {
       /**
        * 四个泛型解释
        * KEYIN K2类型
        * VALUEIN v2类型
        *
        * KEYOUT K3类型
        * VALUEOUT V3类型
        */
   
       @Override
       protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
           //reduce 方法作用:将新k2 和 v2 转化为 k3 和 v3 ,将 k3 和 v3 写入上下文对象
   
           /**
            *参数
            * key 新k2
            * values 集合 新v2
            * context 表示上下文对象
            *
            * 如何将新的 k2 和 v2 转为  k3 和 v3?
            * 新k2      v2
            * hello    <1,1,1,1>
            * word     <1,1>
            * hadoop   <1>
            *.............
            * k3       v3
            * hello    4
            * word     3
            * hadoop   1
            */
   
           LongWritable longWritable = new LongWritable();
   
           //1. 遍历集合,将集合中的数字相加,得到v3
           long count = 0;
           for (LongWritable value : values){
               count += value.get();
           }
           //2.将K3和V3写入上下文中
           longWritable.set(count);
           context.write(key,longWritable);
   
   
   
       }
   }
   
  1. jobmain
   public class JobMain extends Configured implements Tool {
   
       //该方法用于指定一个job任务
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           Job job = Job.getInstance(super.getConf(), "wordcount");
           //如果打包运行出错,需要加如下代码
           job.setJarByClass(JobMain.class);
   
           //2.配置job任务对象
           job.setInputFormatClass(TextInputFormat.class);//1.读文件的方式使用InputFormat的子类TextInputFormat
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\combiner\\wordcount.txt"));//2.指定读取源文件对象地址。
   
           job.setMapperClass(WordCountMapper.class);//3.指定map阶段的处理方式
           job.setMapOutputKeyClass(Text.class);//4.设置map阶段k2的类型
           job.setMapOutputValueClass(LongWritable.class);//5.设置map阶段v2的类型
   
   //        shuffle阶段(分区,排序,规约,分组)暂不做处理,此处采用默认方式
           //shuffle 规约 设置
           job.setCombinerClass(MyCombiner.class);
   
           //6.指定Reduce阶段的处理方式和数据类型
           job.setReducerClass(WordCountReducer.class);
           //7.设置k3类型
           job.setOutputKeyClass(Text.class);
           //8.设置v3的类型
           job.setOutputValueClass(LongWritable.class);
   
           //9.设置输出类型
           job.setOutputFormatClass(TextOutputFormat.class);
           //10.设置输出路径
           Path path = new Path("file:///G:\\学习\\maven\\src\\main\\java\\combiner\\OutWordCount");
           TextOutputFormat.setOutputPath(job,path);
   
           //11.等待任务结束
           boolean b1 = job.waitForCompletion(true);
           return b1 ? 0 : 1;//根据返回结果判断任务是否正常
       }
   
       public static void main(String[] args) throws Exception {
           //配置文件对象
           Configuration conf = new Configuration();
           //启动job任务
           int run = ToolRunner.run(conf, new JobMain(), args);
           System.exit(run);//退出任务
       }
   }
   

9.2 案例:流量统计求和

需求:统计求和,统计每个手机号的上行数据包总和,下行数据包总和,上行总数据之和,下行总数据之和

分析:以手机号码作为key值,下行流量,上行流量,上行总流量下行总流量四个字段分别作为value值,然后以这key,和value作为map阶段的输出,reduce阶段的输入

  1. 自定义map的输出value对象flowBean
   public class FlowBean implements Writable {
       private Integer upFlow;// 上行数据包数
       private Integer downFlow;// 下行数据包数
       private Integer upCountFlow;//上行流量总和
       private Integer downCountFlow;//下行流量总和
   
       public Integer getUpFlow() {
           return upFlow;
       }
   
       public void setUpFlow(Integer upFlow) {
           this.upFlow = upFlow;
       }
   
       public Integer getDownFlow() {
           return downFlow;
       }
   
       public void setDownFlow(Integer downFlow) {
           this.downFlow = downFlow;
       }
   
       public Integer getUpCountFlow() {
           return upCountFlow;
       }
   
       public void setUpCountFlow(Integer upCountFlow) {
           this.upCountFlow = upCountFlow;
       }
   
       public Integer getDownCountFlow() {
           return downCountFlow;
       }
   
       public void setDownCountFlow(Integer downCountFlow) {
           this.downCountFlow = downCountFlow;
       }
   
       @Override
       public String toString() {
           return  upFlow +
                   "\t" + downFlow +
                   "\t" + upCountFlow +
                   "\t" + downCountFlow;
       }
   
       //序列化方法
       @Override
       public void write(DataOutput dataOutput) throws IOException {
           dataOutput.writeInt(upFlow);
           dataOutput.writeInt(downFlow);
           dataOutput.writeInt(upCountFlow);
           dataOutput.writeInt(downCountFlow);
       }
       //反序列化
       @Override
       public void readFields(DataInput dataInput) throws IOException {
           this.upFlow = dataInput.readInt();
           this.downFlow = dataInput.readInt();
           this.upCountFlow = dataInput.readInt();
           this.downCountFlow = dataInput.readInt();
       }
   }
   
  1. Mapper
   public class FlowCountMapper extends Mapper<LongWritable, Text,Text,FlowBean> {
       /**
        * 将k1和 v1 转为 k2 和 v2
        * k1       v1
        * 0        1363157985059 	13600217502	00-1F-64-E2-E8-B1:CMCC	120.196.100.55	www.baidu.com	综合门户	19	128	1177	16852	200
        *
        * ------------
        *
        * k2               v2
        * 13600217502      FlowBean(19	128	1177	16852)
        */
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           //1.拆分行文本数据,得到手机号 --》k2
           String[] split = value.toString().split("\t");
           String phoneNum = split[1];
   
           //2.创建FlowBean对象,并从行文本数据拆分出流量的四个字段,并将四个字段赋值给FlowBean对象
           FlowBean flowBean = new FlowBean();
           flowBean.setUpFlow(Integer.parseInt(split[6]));
           flowBean.setDownFlow(Integer.parseInt(split[7]));
           flowBean.setUpCountFlow(Integer.parseInt(split[8]));
           flowBean.setDownCountFlow(Integer.parseInt(split[9]));
   
           //3.将k2 和  v2 写入上下文中
           context.write(new Text(phoneNum),flowBean);
   
       }
   }
   
  1. reducer
   public class FlowReducer extends Reducer<Text,FlowBean,Text,FlowBean> {
       @Override
       protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {
           //1.遍历集合,并将集合中对应的四个字段累加
            Integer upFlow = 0;// 上行数据包数
            Integer downFlow = 0;// 下行数据包数
            Integer upCountFlow = 0;//上行流量总和
            Integer downCountFlow = 0;//下行流量总和
           for (FlowBean value :values){
               upFlow += value.getUpFlow();
               downFlow += value.getDownFlow();
               upCountFlow += value.getUpCountFlow();
               downCountFlow += value.getDownCountFlow();
           }
           //2.创建FlowBean对象,并给对象赋值
           FlowBean flowBean = new FlowBean();
           flowBean.setUpFlow(upFlow);
           flowBean.setDownFlow(downFlow);
           flowBean.setUpCountFlow(upCountFlow);
           flowBean.setDownCountFlow(downCountFlow);
           //3.将k3和v3写入上下文中
           context.write(key,flowBean);
       }
   }
   
  1. jobMain
   public class JobMain extends Configured implements Tool {
   
       //该方法用于指定一个job任务
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           Job job = Job.getInstance(super.getConf(), "mapreduce_flowBean");
           //如果打包运行出错,需要加如下代码
           job.setJarByClass(JobMain.class);
   
           //2.配置job任务对象
           job.setInputFormatClass(TextInputFormat.class);//1.读文件的方式使用InputFormat的子类TextInputFormat
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount\\data_flow.dat"));//2.指定读取源文件对象地址。
   
           job.setMapperClass(FlowCountMapper.class);//3.指定map阶段的处理方式
           job.setMapOutputKeyClass(Text.class);//4.设置map阶段k2的类型
           job.setMapOutputValueClass(FlowBean.class);//5.设置map阶段v2的类型
   
   //        shuffle阶段(分区,排序,规约,分组)暂不做处理,此处采用默认方式
   
           //6.指定Reduce阶段的处理方式和数据类型
           job.setReducerClass(FlowReducer.class);
           //7.设置k3类型
           job.setOutputKeyClass(Text.class);
           //8.设置v3的类型
           job.setOutputValueClass(FlowBean.class);
   
           //9.设置输出类型
           job.setOutputFormatClass(TextOutputFormat.class);
           //10.设置输出路径
           Path path = new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount\\FlowCountOut");
           TextOutputFormat.setOutputPath(job,path);
   
           //11.等待任务结束
           boolean b1 = job.waitForCompletion(true);
           return b1 ? 0 : 1;//根据返回结果判断任务是否正常
       }
   
       public static void main(String[] args) throws Exception {
           //配置文件对象
           Configuration conf = new Configuration();
           //启动job任务
           int run = ToolRunner.run(conf, new JobMain(), args);
           System.exit(run);//退出任务
       }
   }
   

9.3 案例:上行流量倒序排序(递减排序)

分析:以案例9.2的输出数据作为排序的输入数据,自定义FloeBean为map输出的key,以手机号作为map输出的value,因为MapReduce程序会对map阶段输出的key进行排序

  1. 定义FlowBean实现WritableComparable实现比较排序

    java的compareTo方法说明:

    • compareTo方法用于将当前对象与方法的参数进行比较
    • 如果指定的数与参数相等返回0
    • 如果指定的数小于参数返回-1
    • 如果指定的数大于参数返回1

    eg:o1.compareTo(o2)返回正数的话,当前对象(调用compareTo方法的对象o1)要排在比较对象(compareeTo传参对象o2)后面,返回负数的话,放在前面

   public class FlowBean implements WritableComparable<FlowBean> {
       private Integer upFlow;// 上行数据包数
       private Integer downFlow;// 下行数据包数
       private Integer upCountFlow;//上行流量总和
       private Integer downCountFlow;//下行流量总和
   
       public Integer getUpFlow() {
           return upFlow;
       }
   
       public void setUpFlow(Integer upFlow) {
           this.upFlow = upFlow;
       }
   
       public Integer getDownFlow() {
           return downFlow;
       }
   
       public void setDownFlow(Integer downFlow) {
           this.downFlow = downFlow;
       }
   
       public Integer getUpCountFlow() {
           return upCountFlow;
       }
   
       public void setUpCountFlow(Integer upCountFlow) {
           this.upCountFlow = upCountFlow;
       }
   
       public Integer getDownCountFlow() {
           return downCountFlow;
       }
   
       public void setDownCountFlow(Integer downCountFlow) {
           this.downCountFlow = downCountFlow;
       }
   
       @Override
       public String toString() {
           return  upFlow +
                   "\t" + downFlow +
                   "\t" + upCountFlow +
                   "\t" + downCountFlow;
       }
   
       //序列化方法
       @Override
       public void write(DataOutput dataOutput) throws IOException {
           dataOutput.writeInt(upFlow);
           dataOutput.writeInt(downFlow);
           dataOutput.writeInt(upCountFlow);
           dataOutput.writeInt(downCountFlow);
       }
       //反序列化
       @Override
       public void readFields(DataInput dataInput) throws IOException {
           this.upFlow = dataInput.readInt();
           this.downFlow = dataInput.readInt();
           this.upCountFlow = dataInput.readInt();
           this.downCountFlow = dataInput.readInt();
       }
   
       //指定排序的规则
       @Override
       public int compareTo(FlowBean o) {
           //this.upFlow .compareTo(o.getUpFlow()) * -1;
           return  o.upFlow - this.upFlow;//降序 返回-1为降序
       }
   }
   
  1. mapper
   public class FlowSortMapper extends Mapper<LongWritable, Text,FlowBean,Text> {
       //map方法:k1,v1转为k2,v2
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           //1.拆分行文本数据(v1),得到四个流量字段,并封装FlowBean对象,得到k2
           String[] split = value.toString().split("\t");
           FlowBean flowBean = new FlowBean();
           flowBean.setUpFlow(Integer.parseInt(split[1]));
           flowBean.setDownFlow(Integer.parseInt(split[2]));
           flowBean.setUpCountFlow(Integer.parseInt(split[3]));
           flowBean.setDownCountFlow(Integer.parseInt(split[4]));
           //2.通过行文本数据,得到手机号 v2
           String phoneNum = split[0];//手机号
           //3.将k2和v2写入上下文中
           context.write(flowBean,new Text(phoneNum));
       }
   }
   
  1. reducer
   // k2 FlowBean, V2 Text 手机号
   // k3 Text 手机号, V3 FlowBean 
   public class FlowSortReducer extends Reducer<FlowBean,Text, Text,FlowBean> {
       @Override
       protected void reduce(FlowBean key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
           // Iterable<Text> values 这里存储的是手机号
           
           //1.遍历集合,取出k3,并将k3和v3写入上下文
           for ( Text value : values){
               context.write(value,key);
           }
   
       }
   }
   
  1. jobMain
   public class JobMain extends Configured implements Tool {
   
       //该方法用于指定一个job任务
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           Job job = Job.getInstance(super.getConf(), "mapreduce_flowBean");
   
           //2.配置job任务对象
           job.setInputFormatClass(TextInputFormat.class);//1.读文件的方式使用InputFormat的子类TextInputFormat
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount\\FlowCountOut"));//2.指定读取源文件对象地址,将上次的输出作为本次的输入
   
           job.setMapperClass(FlowSortMapper.class);//3.指定map阶段的处理方式
           job.setMapOutputKeyClass(FlowBean.class);//4.设置map阶段k2的类型
           job.setMapOutputValueClass(Text.class);//5.设置map阶段v2的类型
   
   //        shuffle阶段(分区,排序,规约,分组)暂不做处理,此处采用默认方式
   
           //6.指定Reduce阶段的处理方式和数据类型
           job.setReducerClass(FlowSortReducer.class);
           //7.设置k3类型
           job.setOutputKeyClass(Text.class);
           //8.设置v3的类型
           job.setOutputValueClass(FlowBean.class);
   
           //9.设置输出类型
           job.setOutputFormatClass(TextOutputFormat.class);
           //10.设置输出路径
           Path path = new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount_sort\\FlowCount_sortOut");
           TextOutputFormat.setOutputPath(job,path);
   
           //11.等待任务结束
           boolean b1 = job.waitForCompletion(true);
           return b1 ? 0 : 1;//根据返回结果判断任务是否正常
       }
   
       public static void main(String[] args) throws Exception {
           //配置文件对象
           Configuration conf = new Configuration();
           //启动job任务
           int run = ToolRunner.run(conf, new JobMain(), args);
           System.exit(run);//退出任务
       }
   }
   

9.4 案例:手机号分区

在案例9.2的基础上继续完善将不同的手机号分到不同的数据文件的当中去,需要自定义
分区来实现,这里我们自定义来模拟分区,将以下数字开头的手机号进行分开

  1. 自定义FlowBean
   public class FlowBean implements Writable {
       private Integer upFlow;// 上行数据包数
       private Integer downFlow;// 下行数据包数
       private Integer upCountFlow;//上行流量总和
       private Integer downCountFlow;//下行流量总和
   
       public Integer getUpFlow() {
           return upFlow;
       }
   
       public void setUpFlow(Integer upFlow) {
           this.upFlow = upFlow;
       }
   
       public Integer getDownFlow() {
           return downFlow;
       }
   
       public void setDownFlow(Integer downFlow) {
           this.downFlow = downFlow;
       }
   
       public Integer getUpCountFlow() {
           return upCountFlow;
       }
   
       public void setUpCountFlow(Integer upCountFlow) {
           this.upCountFlow = upCountFlow;
       }
   
       public Integer getDownCountFlow() {
           return downCountFlow;
       }
   
       public void setDownCountFlow(Integer downCountFlow) {
           this.downCountFlow = downCountFlow;
       }
   
       @Override
       public String toString() {
           return  upFlow +
                   "\t" + downFlow +
                   "\t" + upCountFlow +
                   "\t" + downCountFlow;
       }
   
       //序列化方法
       @Override
       public void write(DataOutput dataOutput) throws IOException {
           dataOutput.writeInt(upFlow);
           dataOutput.writeInt(downFlow);
           dataOutput.writeInt(upCountFlow);
           dataOutput.writeInt(downCountFlow);
       }
       //反序列化
       @Override
       public void readFields(DataInput dataInput) throws IOException {
           this.upFlow = dataInput.readInt();
           this.downFlow = dataInput.readInt();
           this.upCountFlow = dataInput.readInt();
           this.downCountFlow = dataInput.readInt();
       }
   }
   
  1. 自定义分区规则partition
   public class FlowCountPartition  extends Partitioner<Text,FlowBean> {
       /**
        * 该方法用来指定分区的规则
        * 135开头的数据到一个分区文件
        * 136开头的数据到一个分区文件
        * 147开头的数据到一个分区文件
        * @param text k2
        * @param flowBean v2
        * @param i reduceTask的个数
        * @return
        */
       @Override
       public int getPartition(Text text, FlowBean flowBean, int i) {
           // 1.获取手机号
           String phoneNum = text.toString();
           //2.判断手机号以什么开头,返回对应的分区别号(0-3)
           if (phoneNum.startsWith("135")){
               return 0;
           }else if(phoneNum.startsWith("136")){
               return 1;
           }else if (phoneNum.startsWith("137")){
               return 2;
           }else {
               return 3;
           }
       }
   }
   
  1. mapper
   public class FlowCountMapper extends Mapper<LongWritable, Text,Text, FlowBean> {
       /**
        * 将k1和 v1 转为 k2 和 v2
        * k1       v1
        * 0        1363157985059 	13600217502	00-1F-64-E2-E8-B1:CMCC	120.196.100.55	www.baidu.com	综合门户	19	128	1177	16852	200
        *
        * ------------
        *
        * k2               v2
        * 13600217502      FlowBean(19	128	1177	16852)
        */
       @Override
       protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
           //1.拆分行文本数据,得到手机号 --》k2
           String[] split = value.toString().split("\t");
           String phoneNum = split[1];
   
           //2.创建FlowBean对象,并从行文本数据拆分出流量的四个字段,并将四个字段赋值给FlowBean对象
           FlowBean flowBean = new FlowBean();
           flowBean.setUpFlow(Integer.parseInt(split[6]));
           flowBean.setDownFlow(Integer.parseInt(split[7]));
           flowBean.setUpCountFlow(Integer.parseInt(split[8]));
           flowBean.setDownCountFlow(Integer.parseInt(split[9]));
   
           //3.将k2 和  v2 写入上下文中
           context.write(new Text(phoneNum),flowBean);
   
       }
   }
   
  1. reducer
   public class FlowReducer extends Reducer<Text, FlowBean,Text, FlowBean> {
       @Override
       protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {
           //1.遍历集合,并将集合中对应的四个字段累加
            Integer upFlow = 0;// 上行数据包数
            Integer downFlow = 0;// 下行数据包数
            Integer upCountFlow = 0;//上行流量总和
            Integer downCountFlow = 0;//下行流量总和
           for (FlowBean value :values){
               upFlow += value.getUpFlow();
               downFlow += value.getDownFlow();
               upCountFlow += value.getUpCountFlow();
               downCountFlow += value.getDownCountFlow();
           }
           //2.创建FlowBean对象,并给对象赋值
           FlowBean flowBean = new FlowBean();
           flowBean.setUpFlow(upFlow);
           flowBean.setDownFlow(downFlow);
           flowBean.setUpCountFlow(upCountFlow);
           flowBean.setDownCountFlow(downCountFlow);
           //3.将k3和v3写入上下文中
           context.write(key,flowBean);
       }
   }
   
  1. jobMain
   public class JobMain extends Configured implements Tool {
   
       //该方法用于指定一个job任务
       @Override
       public int run(String[] strings) throws Exception {
           //1.创建job任务对象
           Job job = Job.getInstance(super.getConf(), "mapreduce_flowBean_partition");
           //如果打包运行出错,需要加如下代码
           job.setJarByClass(JobMain.class);
   
           //2.配置job任务对象
           job.setInputFormatClass(TextInputFormat.class);//1.读文件的方式使用InputFormat的子类TextInputFormat
           TextInputFormat.addInputPath(job,new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount_partition\\data_flow.dat"));//2.指定读取源文件对象地址。
   
           job.setMapperClass(FlowCountMapper.class);//3.指定map阶段的处理方式
           job.setMapOutputKeyClass(Text.class);//4.设置map阶段k2的类型
           job.setMapOutputValueClass(FlowBean.class);//5.设置map阶段v2的类型
   
   //        shuffle阶段(分区,排序,规约,分组)暂不做处理,此处采用默认方式
           //指定分区
           job.setPartitionerClass(FlowCountPartition.class);
   
           //6.指定Reduce阶段的处理方式和数据类型
           job.setReducerClass(FlowReducer.class);
           //7.设置k3类型
           job.setOutputKeyClass(Text.class);
           //8.设置v3的类型
           job.setOutputValueClass(FlowBean.class);
   
           //设置reduce的个数
           job.setNumReduceTasks(4);
   
           //9.设置输出类型
           job.setOutputFormatClass(TextOutputFormat.class);
           //10.设置输出路径
           Path path = new Path("file:///G:\\学习\\maven\\src\\main\\java\\FlowCount_partition\\FlowPartitionOut");
           TextOutputFormat.setOutputPath(job,path);
   
           //11.等待任务结束
           boolean b1 = job.waitForCompletion(true);
           return b1 ? 0 : 1;//根据返回结果判断任务是否正常
       }
   
       public static void main(String[] args) throws Exception {
           //配置文件对象
           Configuration conf = new Configuration();
           //启动job任务
           int run = ToolRunner.run(conf, new JobMain(), args);
           System.exit(run);//退出任务
       }
   }
   

相关文章