前兩天面試3面學長問我的這個問題(想說TEG的3個面試學長都是好和藹,希望能完成最后一面,各方面原因造成我無比想去鵝場的心已經按捺不住了),這個問題還是建立最小堆比較好一些。
先拿10000個數建堆,然后一次添加剩余元素,如果大于堆頂的數(10000中最小的),將這個數替換堆頂,并調整結構使之仍然是一個最小堆,這樣,遍歷完后,堆中的10000個數就是所需的最大的10000個。建堆時間復雜度是O(mlogm),算法的時間復雜度為O(nmlogm)(n為10億,m為10000)。
優化的方法:可以把所有10億個數據分組存放,比如分別放在1000個文件中。這樣處理就可以分別在每個文件的10^6個數據中找出最大的10000個數,合并到一起在再找出最終的結果。
以上就是面試時簡單提到的內容,下面整理一下這方面的問題:
-
top K問題
在大規模數據處理中,經常會遇到的一類問題:在海量數據中找出出現頻率最好的前k個數,或者從海量數據中找出最大的前k個數,這類問題通常被稱為top K問題。例如,在搜索引擎中,統計搜索最熱門的10個查詢詞;在歌曲庫中統計下載最高的前10首歌等。針對top K類問題,通常比較好的方案是分治+Trie樹/hash+小頂堆(就是上面提到的最小堆),即先將數據集按照Hash方法分解成多個小數據集,然后使用Trie樹活著Hash統計每個小數據集中的query詞頻,之后用小頂堆求出每個數據集中出現頻率最高的前K個數,最后在所有top K中求出最終的top K。
有1億個浮點數,如果找出期中最大的10000個?
最容易想到的方法是將數據全部排序,然后在排序后的集合中進行查找,最快的排序算法的時間復雜度一般為O(nlogn),如快速排序。但是在32位的機器上,每個float類型占4個字節,1億個浮點數就要占用400MB的存儲空間,對于一些可用內存小于400M的計算機而言,很顯然是不能一次將全部數據讀入內存進行排序的。其實即使內存能夠滿足要求(我機器內存都是8GB),該方法也并不高效,因為題目的目的是尋找出最大的10000個數即可,而排序卻是將所有的元素都排序了,做了很多的無用功。
第二種方法為局部淘汰法,該方法與排序方法類似,用一個容器保存前10000個數,然后將剩余的所有數字——與容器內的最小數字相比,如果所有后續的元素都比容器內的10000個數還小,那么容器內這個10000個數就是最大10000個數。如果某一后續元素比容器內最小數字大,則刪掉容器內最小元素,并將該元素插入容器,最后遍歷完這1億個數,得到的結果容器中保存的數即為最終結果了。此時的時間復雜度為O(n+m^2),其中m為容器的大小,即10000。
第三種方法是分治法,將1億個數據分成100份,每份100萬個數據,找到每份數據中最大的10000個,最后在剩下的100
*
10000個數據里面找出最大的10000個。如果100萬數據選擇足夠理想,那么可以過濾掉1億數據里面99%的數據。100萬個數據里面查找最大的10000個數據的方法如下:用快速排序的方法,將數據分為2堆,如果大的那堆個數N大于10000個,繼續對大堆快速排序一次分成2堆,如果大的那堆個數N大于10000個,繼續對大堆快速排序一次分成2堆,如果大堆個數N小于10000個,就在小的那堆里面快速排序一次,找第10000-n大的數字;遞歸以上過程,就可以找到第1w大的數。參考上面的找出第1w大數字,就可以類似的方法找到前10000大數字了。此種方法需要每次的內存空間為10^6*4=4MB,一共需要101次這樣的比較。第四種方法是Hash法。如果這1億個書里面有很多重復的數,先通過Hash法,把這1億個數字去重復,這樣如果重復率很高的話,會減少很大的內存用量,從而縮小運算空間,然后通過分治法或最小堆法查找最大的10000個數。
- 第五種方法采用最小堆。首先讀入前10000個數來創建大小為10000的最小堆,建堆的時間復雜度為O(mlogm)(m為數組的大小即為10000),然后遍歷后續的數字,并于堆頂(最小)數字進行比較。如果比最小的數小,則繼續讀取后續數字;如果比堆頂數字大,則替換堆頂元素并重新調整堆為最小堆。整個過程直至1億個數全部遍歷完為止。然后按照中序遍歷的方式輸出當前堆中的所有10000個數字。該算法的時間復雜度為O(nmlogm),空間復雜度是10000(常數)。
實際運行:
實際上,最優的解決方案應該是最符合實際設計需求的方案,在時間應用中,可能有足夠大的內存,那么直接將數據扔到內存中一次性處理即可,也可能機器有多個核,這樣可以采用多線程處理整個數據集。
下面針對不容的應用場景,分析了適合相應應用場景的解決方案。
(1)單機+單核+足夠大內存
如果需要查找10億個查詢次(每個占8B)中出現頻率最高的10個,考慮到每個查詢詞占8B,則10億個查詢次所需的內存大約是10^9 * 8B=8GB內存。如果有這么大內存,直接在內存中對查詢次進行排序,順序遍歷找出10個出現頻率最大的即可。這種方法簡單快速,使用。然后,也可以先用HashMap求出每個詞出現的頻率,然后求出頻率最大的10個詞。
(2)單機+多核+足夠大內存
這時可以直接在內存總使用Hash方法將數據劃分成n個partition,每個partition交給一個線程處理,線程的處理邏輯同(1)類似,最后一個線程將結果歸并。
該方法存在一個瓶頸會明顯影響效率,即數據傾斜。每個線程的處理速度可能不同,快的線程需要等待慢的線程,最終的處理速度取決于慢的線程。而針對此問題,解決的方法是,將數據劃分成c×n個partition(c>1),每個線程處理完當前partition后主動取下一個partition繼續處理,知道所有數據處理完畢,最后由一個線程進行歸并。
(3)單機+單核+受限內存
這種情況下,需要將原數據文件切割成一個一個小文件,如次啊用hash(x)%M,將原文件中的數據切割成M小文件,如果小文件仍大于內存大小,繼續采用Hash的方法對數據文件進行分割,知道每個小文件小于內存大小,這樣每個文件可放到內存中處理。采用(1)的方法依次處理每個小文件。
(4)多機+受限內存
這種情況,為了合理利用多臺機器的資源,可將數據分發到多臺機器上,每臺機器采用(3)中的策略解決本地的數據。可采用hash+socket方法進行數據分發。
以下是一些經常被提及的該類問題。
(1)有10000000個記錄,這些查詢串的重復度比較高,如果除去重復后,不超過3000000個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。請統計最熱門的10個查詢串,要求使用的內存不能超過1GB。
(2)有10個文件,每個文件1GB,每個文件的每一行存放的都是用戶的query,每個文件的query都可能重復。按照query的頻度排序。(3)有一個1GB大小的文件,里面的每一行是一個詞,詞的大小不超過16個字節,內存限制大小是1MB。返回頻數最高的100個詞。(4)提取某日訪問網站次數最多的那個IP。
(5)10億個整數找出重復次數最多的100個整數。
(6)搜索的輸入信息是一個字符串,統計300萬條輸入信息中最熱門的前10條,每次輸入的一個字符串為不超過255B,內存使用只有1GB。
(7)有1000萬個身份證號以及他們對應的數據,身份證號可能重復,找出出現次數最多的身份證號。
重復問題
在海量數據中查找出重復出現的元素或者去除重復出現的元素也是常考的問題。針對此類問題,一般可以通過位圖法實現。例如,已知某個文件內包含一些電話號碼,每個號碼為8位數字,統計不同號碼的個數。 本題最好的解決方法是通過使用位圖法來實現。8位整數可以表示的最大十進制數值為99999999。如果每個數字對應于位圖中一個bit位,那么存儲8位整數大約需要99MB。因為1B=8bit,所以99Mbit折合成內存為99/8=12.375MB的內存,即可以只用12.375MB的內存表示所有的8位數電話號碼的內容。
版權聲明:本文為博主原創文章,未經博主允許不得轉載。
原文鏈接:http://blog.csdn.net/zyq522376829/article/details/47686867