Spark是一個(gè)Apache項(xiàng)目,它被標(biāo)榜為“快如閃電的集群計(jì)算”。它擁有一個(gè)繁榮的開源社區(qū),并且是目前最活躍的Apache項(xiàng)目。
Spark提供了一個(gè)更快、更通用的數(shù)據(jù)處理平臺(tái)。和Hadoop相比,Spark可以讓你的程序在內(nèi)存中運(yùn)行時(shí)速度提升100倍,或者在磁盤上運(yùn)行時(shí)速度提升10倍。同時(shí)spark也讓傳統(tǒng)的mapreducejob開發(fā)變得更加簡(jiǎn)單快捷。之前我們大圣眾包小編也為大家整理過Spark書單和方法,而本文將簡(jiǎn)單介紹幾個(gè)經(jīng)典hadoop的mr按理用spark實(shí)現(xiàn),來讓大家熟悉spark的開發(fā)。
最大值最小值
求最大值最小值一直是Hadoop的經(jīng)典案例,我們用Spark來實(shí)現(xiàn)一下,借此感受一下spark中mr的思想和實(shí)現(xiàn)方式。話不多說直接上code
預(yù)期結(jié)果:
max:1001min:2
思路和hadoop中的mr類似,設(shè)定一個(gè)key,value為需要求最大與最小值的集合,然后再groupBykey聚合在一起處理。第二個(gè)方法就更簡(jiǎn)單,性能也更好。
平均值問題
求每個(gè)key對(duì)應(yīng)的平均值是常見的案例,在spark中處理類似問題常常會(huì)用到combineByKey這個(gè)函數(shù),詳細(xì)介紹請(qǐng)google一下用法,下面看代碼:
我們讓每個(gè)partiton先求出單個(gè)partition內(nèi)各個(gè)key對(duì)應(yīng)的所有整數(shù)的和sum以及個(gè)數(shù)count,然后返回一個(gè)pair(sum,count)在shuffle后累加各個(gè)key對(duì)應(yīng)的所有sum和count,再相除得到均值.
TopN問題
Topn問題同樣也是hadoop種體現(xiàn)mr思想的經(jīng)典案例,那么在spark中如何方便快捷的解決呢:
思路很簡(jiǎn)單,把數(shù)據(jù)groupBykey以后按key形成分組然后取每個(gè)分組最大的2個(gè)。預(yù)期結(jié)果:
以上簡(jiǎn)單介紹了一下hadoop中常見的3個(gè)案例在spark中的實(shí)現(xiàn)。如果讀者們已經(jīng)接觸過或者寫過一些hadoop的mapreducejob,那么會(huì)不會(huì)覺得在spark中寫起來方便快捷很多呢。
原文地址:http://www.dashengzb.cn/articles/a-327.html
(更多大數(shù)據(jù)與商業(yè)智能領(lǐng)域干貨、或電子書,可添加個(gè)人微信號(hào)(dashenghuaer))