初學(xué)Hadoop之圖解MapReduce與WordCount示例分析

Hadoop的框架最核心的設(shè)計就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲,MapReduce則為海量的數(shù)據(jù)提供了計算。

  HDFS是Google File System(GFS)的開源實現(xiàn),MapReduce是Google MapReduce的開源實現(xiàn)。

  HDFS和MapReduce實現(xiàn)是完全分離的,并不是沒有HDFS就不能MapReduce運算。

本文主要參考了以下三篇博客學(xué)習(xí)整理而成。

1、Hadoop示例程序WordCount詳解及實例

2、hadoop 學(xué)習(xí)筆記:mapreduce框架詳解

3、hadoop示例程序wordcount分析


1、MapReduce整體流程

  最簡單的MapReduce應(yīng)用程序至少包含 3 個部分:一個 Map?函數(shù)、一個 Reduce 函數(shù)和一個 main 函數(shù)。在運行一個mapreduce計算任務(wù)時候,任務(wù)過程被分為兩個階段:map階段和reduce階段,每個階段都是用鍵值對(key/value)作為輸入(input)和輸出(output)。main 函數(shù)將作業(yè)控制和文件輸入/輸出結(jié)合起來。

并行讀取文本中的內(nèi)容,然后進行MapReduce操作。

Map過程:并行讀取文本,對讀取的單詞進行map操作,每個詞都以形式生成。

我的理解:

  一個有三行文本的文件進行MapReduce操作。

  讀取第一行Hello World Bye World ,分割單詞形成Map。

  ???

  讀取第二行Hello Hadoop Bye Hadoop?,分割單詞形成Map。

  ???

  讀取第三行Bye Hadoop Hello Hadoop,分割單詞形成Map。

  ???

Reduce操作是對map的結(jié)果進行排序,合并,最后得出詞頻。

我的理解:

  經(jīng)過進一步處理(combiner),將形成的Map根據(jù)相同的key組合成value數(shù)組。

  ???

  循環(huán)執(zhí)行Reduce(K,V[]),分別統(tǒng)計每個單詞出現(xiàn)的次數(shù)。

  ???

2、WordCount源碼

package org.apache.hadoop.examples;import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.Mapper;import org.apache.hadoop.mapreduce.Reducer;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import org.apache.hadoop.util.GenericOptionsParser;/** *

* 描述:WordCount explains by York

? * @author Hadoop Dev Group

*/publicclass WordCount {

? ? /**? ? * 建立Mapper類TokenizerMapper繼承自泛型類Mapper

? ? * Mapper類:實現(xiàn)了Map功能基類

? ? * Mapper接口:

? ? * WritableComparable接口:實現(xiàn)WritableComparable的類可以相互比較。所有被用作key的類應(yīng)該實現(xiàn)此接口。

? ? * Reporter 則可用于報告整個應(yīng)用的運行進度,本例中未使用。

? ? *

? ? */? publicstaticclass TokenizerMapper

? ? ? extendsMapper{

? ? ? ? /**? ? ? ? * IntWritable, Text 均是 Hadoop 中實現(xiàn)的用于封裝 Java 數(shù)據(jù)類型的類,這些類實現(xiàn)了WritableComparable接口,

? ? ? ? * 都能夠被串行化從而便于在分布式環(huán)境中進行數(shù)據(jù)交換,你可以將它們分別視為int,String 的替代品。

? ? * 聲明one常量和word用于存放單詞的變量

? ? ? ? */? ? privatefinalstatic IntWritable one =newIntWritable(1);

? ? privateText word =new Text();

? ? /**? ? ? ? * Mapper中的map方法:

? ? ? ? * void map(K1 key, V1 value, Context context)

? ? ? ? * 映射一個單個的輸入k/v對到一個中間的k/v對

? ? ? ? * 輸出對不需要和輸入對是相同的類型,輸入對可以映射到0個或多個輸出對。

? ? ? ? * Context:收集Mapper輸出的對。

? ? ? ? * Context的write(k, v)方法:增加一個(k,v)對到context

? ? ? ? * 程序員主要編寫Map和Reduce函數(shù).這個Map函數(shù)使用StringTokenizer函數(shù)對字符串進行分隔,通過write方法把單詞存入word中

? ? * write方法存入(單詞,1)這樣的二元組到context中

? ? */?

? ? publicvoid map(Object key, Text value, Context context

? ? ? ? ? ? ? ? ? ? ) throws IOException, InterruptedException {

? ? ? StringTokenizer itr =new StringTokenizer(value.toString());

? ? ? while (itr.hasMoreTokens()) {

? ? ? ? word.set(itr.nextToken());

? ? ? ? context.write(word, one);

? ? ? }

? ? }

? }


? publicstaticclass IntSumReducer

? ? ? extendsReducer {

? ? privateIntWritable result =new IntWritable();

? ? /**? ? ? ? * Reducer類中的reduce方法:

? ? ? * void reduce(Text key, Iterable values, Context context)

? ? ? ? * 中k/v來自于map函數(shù)中的context,可能經(jīng)過了進一步處理(combiner),同樣通過context輸出? ? ? ? ?

? ? ? ? */? ? publicvoid reduce(Text key, Iterable values,

? ? ? ? ? ? ? ? ? ? ? Context context

? ? ? ? ? ? ? ? ? ? ? ) throws IOException, InterruptedException {

? ? ? intsum =0;

? ? ? for (IntWritable val : values) {

? ? ? ? sum += val.get();

? ? ? }

? ? ? result.set(sum);

? ? ? context.write(key, result);

? ? }

? }

? publicstaticvoid main(String[] args) throws Exception {

? ? ? ? /**? ? ? ? * Configuration:map/reduce的j配置類,向hadoop框架描述map-reduce執(zhí)行的工作

? ? ? ? */? ? Configuration conf =new Configuration();

? ? String[] otherArgs =new GenericOptionsParser(conf, args).getRemainingArgs();

? ? if(otherArgs.length !=2) {

? ? ? System.err.println("Usage: wordcount ");

? ? ? System.exit(2);

? ? }

? ? Job job =newJob(conf, "word count");//設(shè)置一個用戶定義的job名稱job.setJarByClass(WordCount.class);

? ? job.setMapperClass(TokenizerMapper.class);//為job設(shè)置Mapper類job.setCombinerClass(IntSumReducer.class);//為job設(shè)置Combiner類job.setReducerClass(IntSumReducer.class);//為job設(shè)置Reducer類job.setOutputKeyClass(Text.class);//為job的輸出數(shù)據(jù)設(shè)置Key類job.setOutputValueClass(IntWritable.class);//為job輸出設(shè)置value類FileInputFormat.addInputPath(job,newPath(otherArgs[0]));//為job設(shè)置輸入路徑FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));//為job設(shè)置輸出路徑System.exit(job.waitForCompletion(true) ?0 : 1);//運行job? }

}

想獲取免費大數(shù)據(jù)相關(guān)學(xué)習(xí)資料的同學(xué)可以加群:724693112 還可以與更多在學(xué)習(xí)大數(shù)據(jù)的同學(xué)一起交流。

3、WordCount逐行解析

對于map函數(shù)的方法。

public void map(Object key, Text value, Context context) throws IOException, InterruptedException {…}

  這里有三個參數(shù),前面兩個Object key, Text value就是輸入的key和value,第三個參數(shù)Context context這是可以記錄輸入的key和value,例如:context.write(word, one);此外context還會記錄map運算的狀態(tài)。

對于reduce函數(shù)的方法。

public void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException {…}

  reduce函數(shù)的輸入也是一個key/value的形式,不過它的value是一個迭代器的形式Iterable values,也就是說reduce的輸入是一個key對應(yīng)一組的值的value,reduce也有context和map的context作用一致。

  至于計算的邏輯則需要程序員編碼實現(xiàn)。

對于main函數(shù)的調(diào)用。

  首先是:

Configuration conf = new Configuration();

  運行MapReduce程序前都要初始化Configuration,該類主要是讀取MapReduce系統(tǒng)配置信息,這些信息包括hdfs還有MapReduce,也就是安裝hadoop時候的配置文件例如:core-site.xml、hdfs-site.xml和mapred-site.xml等等文件里的信息,有些童鞋不理解為啥要這么做,這個是沒有深入思考MapReduce計算框架造成,我們程序員開發(fā)MapReduce時候只是在填空,在map函數(shù)和reduce函數(shù)里編寫實際進行的業(yè)務(wù)邏輯,其它的工作都是交給MapReduce框架自己操作的,但是至少我們要告訴它怎么操作啊,比如hdfs在哪里,MapReduce的jobstracker在哪里,而這些信息就在conf包下的配置文件里。

  接下來的代碼是:

? ? String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();

? ? if (otherArgs.length != 2) {

? ? ? System.err.println("Usage: wordcount ");

? ? ? System.exit(2);

? ? }

  If的語句好理解,就是運行WordCount程序時候一定是兩個參數(shù),如果不是就會報錯退出。至于第一句里的GenericOptionsParser類,它是用來解釋常用hadoop命令,并根據(jù)需要為Configuration對象設(shè)置相應(yīng)的值,其實平時開發(fā)里我們不太常用它,而是讓類實現(xiàn)Tool接口,然后再main函數(shù)里使用ToolRunner運行程序,而ToolRunner內(nèi)部會調(diào)用GenericOptionsParser。

  接下來的代碼是:

? ? Job job = new Job(conf, "word count");

? ? job.setJarByClass(WordCount.class);

? ? job.setMapperClass(TokenizerMapper.class);

? ? job.setCombinerClass(IntSumReducer.class);

? ? job.setReducerClass(IntSumReducer.class);

  第一行就是在構(gòu)建一個job,在mapreduce框架里一個mapreduce任務(wù)也叫mapreduce作業(yè)也叫做一個mapreduce的job,而具體的map和reduce運算就是task了,這里我們構(gòu)建一個job,構(gòu)建時候有兩個參數(shù),一個是conf這個就不累述了,一個是這個job的名稱。

  第二行就是裝載程序員編寫好的計算程序,例如我們的程序類名就是WordCount了。這里我要做下糾正,雖然我們編寫mapreduce程序只需要實現(xiàn)map函數(shù)和reduce函數(shù),但是實際開發(fā)我們要實現(xiàn)三個類,第三個類是為了配置mapreduce如何運行map和reduce函數(shù),準確的說就是構(gòu)建一個mapreduce能執(zhí)行的job了,例如WordCount類。

  第三行和第五行就是裝載map函數(shù)和reduce函數(shù)實現(xiàn)類了,這里多了個第四行,這個是裝載Combiner類,這個類和mapreduce運行機制有關(guān),其實本例去掉第四行也沒有關(guān)系,但是使用了第四行理論上運行效率會更好。

  接下來的代碼:

? ? job.setOutputKeyClass(Text.class);

? ? job.setOutputValueClass(IntWritable.class);

  這個是定義輸出的key/value的類型,也就是最終存儲在hdfs上結(jié)果文件的key/value的類型。

  最后的代碼是:

? ? FileInputFormat.addInputPath(job, new Path(otherArgs[0]));

? ? FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

? ? System.exit(job.waitForCompletion(true) ? 0 : 1);

  第一行就是構(gòu)建輸入的數(shù)據(jù)文件,第二行是構(gòu)建輸出的數(shù)據(jù)文件,最后一行如果job運行成功了,我們的程序就會正常退出。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容