在hadoop的map-reduce框架下實現倒排索引InvertedIndex算法

編程環境:

Ubuntu16.4 uklin
Hadoop3.2.0
openjdk version "1.8.0_191"
完整代碼已經更新至GitHub,歡迎fork~GitHub鏈接


聲明:創作不易,未經授權不得復制轉載
statement:No reprinting without authorization


二、在本地編寫程序和調試

1、mapper設計:

輸入:
<string line> ---------讀入文檔的每行字符串

處理過程1:
<進行token,正則化去除英文數字外的字符,轉為小寫,利用空格符分詞> ----------得到一個個獨立的英文單詞

處理過程2:
<得到文檔的文件名,加在每隔單詞的后面結合成輸出的key值(中間用特殊字符分隔),這樣設計方便統計每個單詞在每篇文檔中的詞頻信息>

處理過程3:
<將每個key對應的value值設為“1”>
輸出:
<<key1,1>,<key2,1>,<key3,1>...>

示例:


image.png
//倒排索引mapper類
    public static class InvertedIndexMapper extends Mapper<LongWritable, Text, Text, Text>{

        private static Text keyInfo = new Text();// 存儲單詞和文檔名組合 eg: hello 
        private static final Text valueInfo = new Text("1");// 存儲詞頻,初始化為1  

        @Override  
        protected void map(LongWritable key, Text value, Context context)  
                throws IOException, InterruptedException {  
                        
            String line = value.toString(); 
            
            //去除標點token操作
            line = line.replaceAll("[^a-zA-Z0-9]", " ");
            line = line.replaceAll("\\s{2,}", " ").trim();
            line = line.toLowerCase();
            String[] fields = line.split(" ");// 得到字段數組  

            FileSplit fileSplit = (FileSplit) context.getInputSplit();// 得到這行數據所在的文件切片  
            String fileName = fileSplit.getPath().getName();// 根據文件切片得到文件名  

            for (String field : fields) {
                if(field!=null){
                    // key值由單詞和URL組成,如“MapReduce:file1”  
                    keyInfo.set(field + "," + fileName);  
                    context.write(keyInfo, valueInfo);  
                }               
            }  
        }  

    }

2、Combine設計

通過一個Reduce過程無法同時完成詞頻統計和生成文檔列表,所以必須增加一個Combine過程完成詞頻統計
輸入:
<key,valuelist<1...>> -----eg:<word+’,’+filename, <1,1,1>>

處理過程:
<根據特殊的字符將key進行拆分,將key設置為單詞,并統計詞頻信息,將value list中的每個1相加,將文檔名和詞頻信息組合成新的value輸出,同樣用特殊的字符分隔>

輸出:
<newKey,newValue> --------eg:<word, filename+’,’+countNumber>

//倒排索引combiner類
    public static class InvertedIndexCombiner extends Reducer<Text, Text, Text, Text>{

        private static Text info = new Text();  

        // 輸入: <MapReduce:file3 {1,1,...}>  
        // 輸出:<MapReduce file3:2>  
        @Override  //偽代碼,表示重寫 系統可以幫你檢查正確性
        protected void reduce(Text key, Iterable<Text> values, Context context)  
                throws IOException, InterruptedException {  
            int sum = 0;// 統計詞頻  
            for (Text value : values) {  
                sum += Integer.parseInt(value.toString());  
            }  
            
            int splitIndex = key.toString().indexOf(",");  
            // 重新設置 value 值由 URL 和詞頻組成  
            info.set(key.toString().substring(splitIndex + 1) + "," + sum);  
            // 重新設置 key 值為單詞  
            key.set(key.toString().substring(0, splitIndex));  

            context.write(key, info);  
        }  
    }

key-value經過map和combine后的變化示例:

image.png

3、停用詞處理設計

設計字符串使用config.set()進行傳遞,在程序map-reduce工作前設計方法,得到停用詞列表存儲入string sword中,而后在reducer中重載setup函數,config.get()函數取出停用詞:


image.png
public static String catStopWords(Configuration conf, String remoteFilePath) {
        Path remotePath = new Path(remoteFilePath);
        //String Swords[] = new String[100];
        //ArrayList<String> strArray = new ArrayList<String> ();
        String sword = "";
        try (FileSystem fs = FileSystem.get(conf);
            FSDataInputStream in = fs.open(remotePath);
            BufferedReader d = new BufferedReader(new InputStreamReader(in));) {
            String line;
            while ((line = d.readLine()) != null) {
                
                line = line.replaceAll("[^a-zA-Z0-9]", "");
                if(line!=null)
                    sword+=line+",";
                    //strArray.add(line);                
            }
        } catch (IOException e) {
            e.printStackTrace();
        }            
        return sword;
    }

4、reducer設計:

經過combiner之后,Reduce過程只需將相同key值的value值組合成倒排索引文件所需的格式即可,利用value中的詞頻信息,分割相加得到total的詞頻數,注意對于傳入的key值,如果在停用詞列表中出現,則不將其輸出寫入context中,剩下的事情就可以直接交給MapReduce框架進行處理了。

示例輸出:


image.png
//倒排索引reducer類
    public static class InvertedIndexReducer extends Reducer<Text, Text, Text, Text>{
        private static Text result = new Text();  
        private static String[] fields;
        @Override
        protected void setup(Context context)
                throws IOException, InterruptedException {
            try {
                //從全局配置獲取配置參數
                Configuration conf = context.getConfiguration();
                String Str = conf.get("swords"); //這樣就拿到了
                fields = Str.split(",");// 得到字段數組
                            
            } catch (Exception e) {                
                e.printStackTrace();
            }
            
        }
        // 輸入:<MapReduce file3,2>  
        // 輸出:<MapReduce file1,1;file2,1;file3,2;>  
        
        @Override  
        protected void reduce(Text key, Iterable<Text> values, Context context)  
                throws IOException, InterruptedException {  
            
            // 生成文檔列表  
            String fileList = new String();  
            int totalNum = 0;
            for (Text value : values) { 
                String va = value.toString();
                int index = va.indexOf(',');
                String subva = va.substring(index+1);
                int num = Integer.valueOf(subva);
                totalNum += num;
                fileList += "<" + va + ">;";  
            }  
            fileList += "<total," + String.valueOf(totalNum)+">.";
            result.set(fileList);  
            //去除停用詞
            String k = key.toString();
            k = k.replaceAll("[^a-z0-9]", "");                      
            if(k!=null){
                boolean tag = true;
                for(String tmp:fields){
                    //System.out.println(tmp);
                    if(tmp.equals(k)){  
                        tag = false;
                        break;
                    }
                }               
                if(tag){
                    context.write(key, result);
                }
            }             
        }  
    }
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,578評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,701評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,691評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,974評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,694評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,026評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,015評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,193評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,719評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,442評論 3 360
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,668評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,151評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,846評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,255評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,592評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,394評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,635評論 2 380

推薦閱讀更多精彩內容