Open VinStarry opened 5 years ago
摘自网络和书上,我对不必要的说明做了删减,对错误的说明做了更正。
wordcount.java代码如下
wordcount.java
import java.io.IOException; import java.util.Iterator; import java.util.StringTokenizer; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapred.FileInputFormat; import org.apache.hadoop.mapred.FileOutputFormat; import org.apache.hadoop.mapred.JobClient; import org.apache.hadoop.mapred.JobConf; import org.apache.hadoop.mapred.MapReduceBase; import org.apache.hadoop.mapred.Mapper; import org.apache.hadoop.mapred.OutputCollector; import org.apache.hadoop.mapred.Reducer; import org.apache.hadoop.mapred.Reporter; import org.apache.hadoop.mapred.TextInputFormat; import org.apache.hadoop.mapred.TextOutputFormat; public class WordCount { /** * MapReduceBase类:实现了Mapper和Reducer接口的基类(其中的方法只是实现接口,而未作任何事情) * Mapper接口: * WritableComparable接口:实现WritableComparable的类可以相互比较。所有被用作key的类应该实现此接口。 * Reporter 则可用于报告整个应用的运行进度,本例中未使用。 * */ public static class Map extends MapReduceBase implements Mapper<LongWritable, Text, Text, IntWritable> { /** * LongWritable, IntWritable, Text 均是 Hadoop 中实现的用于封装 Java 数据类型的类,这些类实现了WritableComparable接口, * 都能够被串行化从而便于在分布式环境中进行数据交换,你可以将它们分别视为long,int,String 的替代品。 */ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); /** * Mapper接口中的map方法: * void map(K1 key, V1 value, OutputCollector<K2,V2> output, Reporter reporter) * 映射一个单个的输入k/v对到一个中间的k/v对 * 输出对不需要和输入对是相同的类型,输入对可以映射到0个或多个输出对。 * OutputCollector接口:收集Mapper和Reducer输出的<k,v>对。 * OutputCollector接口的collect(k, v)方法:增加一个(k,v)对到output */ public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()) { word.set(tokenizer.nextToken()); output.collect(word, one); } } } public static class Reduce extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> { public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException { int sum = 0; while (values.hasNext()) { sum += values.next().get(); } output.collect(key, new IntWritable(sum)); } } public static void main(String[] args) throws Exception { /** * JobConf:map/reduce的job配置类,向hadoop框架描述map-reduce执行的工作 * 构造方法:JobConf()、JobConf(Class exampleClass)、JobConf(Configuration conf)等 */ JobConf conf = new JobConf(WordCount.class); conf.setJobName("wordcount"); //设置一个用户定义的job名称 conf.setOutputKeyClass(Text.class); //为job的输出数据设置Key类 conf.setOutputValueClass(IntWritable.class); //为job输出设置value类 conf.setMapperClass(Map.class); //为job设置Mapper类 conf.setCombinerClass(Reduce.class); //为job设置Combiner类 conf.setReducerClass(Reduce.class); //为job设置Reduce类 conf.setInputFormat(TextInputFormat.class); //为map-reduce任务设置InputFormat实现类 conf.setOutputFormat(TextOutputFormat.class); //为map-reduce任务设置OutputFormat实现类 /** * InputFormat描述map-reduce中对job的输入定义 * setInputPaths():为map-reduce job设置路径数组作为输入列表 * setInputPath():为map-reduce job设置路径数组作为输出列表 */ FileInputFormat.setInputPaths(conf, new Path(args[0])); FileOutputFormat.setOutputPath(conf, new Path(args[1])); JobClient.runJob(conf); //运行一个job } }
从Main函数开始分析,介绍一些必须要了解的重要概念。
JobConf是Hadoop框架中配置MapReduce任务的主要接口,框架会按照JobConf对象中的配置信息来执行作业。
JobConf
Hadoop
MapReduce
TextInputFormat向Hadoop框架声明其输入文件为文本格式,会读取输入文件的每行作为一个记录。
TextInputFormat
TextOutputFormat指定了该MapReduce作业的输出情况,会检测其输出目录是否存在,如果输出目录已经存在,Hadoop系统会拒绝该作业的执行。
TextOutputFormat
FileInputFormat.setInputPaths(conf,new Path(args[0])向Hadoop框架向Hadoop框架声明了要读取的文件的所在的目录。
FileInputFormat.setInputPaths(conf,new Path(args[0])
FileOutputFormat.setOutputPath(conf,new Path(args[1])指定了作业的输出目录,作业的最终结果会输出保存在该目录下。
FileOutputFormat.setOutputPath(conf,new Path(args[1])
conf.setOutputKeyClass和conf.setOutputValueClass指定了输出的键类和值类,与Reducer类相匹配,键和值类必须要同指定的Reducer类一致,否则在作业执行的时候讲跑出RuntimeException异常。
conf.setOutputKeyClass
conf.setOutputValueClass
Reducer实例的执行数量默认为1,该值是可以改变的,并且常常可以用来提高程序的运行效率,调用JobConf.class的实例中setNumReduceTask(int n)方法就可以配置该参数。
Reducer
1
JobConf.class
setNumReduceTask(int n)
当程序开始时候,Mapper函数会从输入文件中读取数据块,字节流会被转换成键/值对格式的记录,然后作为Mapper的输入,键是当前字节偏移量,值是文件中读取的一行文件数据。
Mapper
Mapper发送的每行单词和整数1。 紧接着是Hadoop的Shuffle阶段,这个过程在上面的列表中并不明显,所有的键在Shuffer/Sort阶段被排序,然后发送给Reducer。Reducer使用一个IntWritable.class类实例。当Reducer迭代去除键对应的一系列值,相同IntWritable.class类实例被复用。
Shuffle
Shuffer/Sort
IntWritable.class
最后当Reducer输出结果的时候,写入到指定的输出目录中,输出文件中的键和值的实例是TAB为默认分隔符,这个分隔符可以通过配置参数来修改
conf.set("mapreduce.textoutputformat.separator",",")
建议用Java,例子比较多,看懂了后再调用就好。
Java
wordcount代码和分析
摘自网络和书上,我对不必要的说明做了删减,对错误的说明做了更正。
wordcount.java
代码如下从Main函数开始分析,介绍一些必须要了解的重要概念。
JobConf
是Hadoop
框架中配置MapReduce
任务的主要接口,框架会按照JobConf
对象中的配置信息来执行作业。TextInputFormat
向Hadoop
框架声明其输入文件为文本格式,会读取输入文件的每行作为一个记录。TextOutputFormat
指定了该MapReduce
作业的输出情况,会检测其输出目录是否存在,如果输出目录已经存在,Hadoop
系统会拒绝该作业的执行。FileInputFormat.setInputPaths(conf,new Path(args[0])
向Hadoop
框架向Hadoop
框架声明了要读取的文件的所在的目录。FileOutputFormat.setOutputPath(conf,new Path(args[1])
指定了作业的输出目录,作业的最终结果会输出保存在该目录下。conf.setOutputKeyClass
和conf.setOutputValueClass
指定了输出的键类和值类,与Reducer类相匹配,键和值类必须要同指定的Reducer类一致,否则在作业执行的时候讲跑出RuntimeException异常。Reducer
实例的执行数量默认为1
,该值是可以改变的,并且常常可以用来提高程序的运行效率,调用JobConf.class
的实例中setNumReduceTask(int n)
方法就可以配置该参数。当程序开始时候,
Mapper
函数会从输入文件中读取数据块,字节流会被转换成键/值对格式的记录,然后作为Mapper
的输入,键是当前字节偏移量,值是文件中读取的一行文件数据。Mapper
发送的每行单词和整数1。 紧接着是Hadoop
的Shuffle
阶段,这个过程在上面的列表中并不明显,所有的键在Shuffer/Sort
阶段被排序,然后发送给Reducer
。Reducer
使用一个IntWritable.class
类实例。当Reducer
迭代去除键对应的一系列值,相同IntWritable.class
类实例被复用。最后当
Reducer
输出结果的时候,写入到指定的输出目录中,输出文件中的键和值的实例是TAB为默认分隔符,这个分隔符可以通过配置参数来修改