row_number() 分組去重優化

筆者最近在做一些任務的優化,大多的場景是因為采用row_number()進行分組去重,所以耗時特別高。樣例代碼如下:

select *
from (
    select *
    from (
        select *, 
            row_number() over(partition by id order by ts desc) rn
        from table
    ) as a
) as a
where rn = 1

原因

要做這個操作,不得不做的就是shuffle,而且因為要保留每行數據,沒法在map端做合并,所以造成shuffle的量特別大。

優化思路

減少shuffle

map端合并

假如沒有這樣的窗口操作的算子,我們自己來實現一個這樣的算子的話,其實是可以在map端做數據合并的。
例如,我們可以把rn=1的操作前置,map端根據分區key和ts排序之后只保留1條就可以,然后reduce端把多個分區的1條記錄合并再得到最終的一條。
目前Spark并沒有這樣的算子,但是可以用其他算子模仿一下,比如max算子,示例代碼如下:

select id, split(tuple, ',') arr
from (
    select id, max(concat_ws(',', ts, col1, col2, ..)) tuple
    from table
    group by id
) as a

在筆者的場景中,確實是可以減少shuffle的數據量,但是下一個stage會很耗時。所以這個是一個策略,但是需要按照自己的情況測試下,也要結合數據量。
如果重復的數據不多,這種策略并不是很好。

復用分區

這個是筆者偶然間發現的一個場景。
筆者的業務SQL如下:

select a.*, b.col
from (
    select *, row_number() over (partition by id, fid order by client_time desc) rn
    from table
) as a
left join mapping_tb as b
on a.id = b.id
where rn = 1

業務邏輯:
分區去重+關聯維度表
執行計劃如下:

+- SortMergeJoin LeftOuter (18)
   :- Sort (10)
   :  +- Exchange (9)
   :        +- Filter (7)
   :           +- Window (6)
   :              +- Sort (5)
   :                 +- ShuffleQueryStage (4)
   :                    +- Exchange (3)
   :                       +- * ColumnarToRow (2)
   :                          +- Scan orc table (1)
   +- Sort (17)
      +- ShuffleQueryStage (16)
         +- Exchange (15)
            +- * Project (14)
               +- * Filter (13)
                  +- * ColumnarToRow (12)
                     +- Scan orc mapping_tb (11)

可以看到關聯維度表用的key為id,分區去重用的key是id+fid,前者的分區肯定包含后者,是不是可以在這上面做些文章。
帶著這樣的懷疑,對邏輯進行了調整,如下:

select *
from (
  select *, row_number() over (partition by id, fid order by client_time desc) rn
  from (
      select a.*, b.col
      from table as a
      left join mapping_tb as b
      on a.id = b.id
  ) as a
) as a
where rn = 1

執行計劃如下:

+- Filter (17)
   +- Window (16)
      +- Sort (15)
         +- Project (14)
            +- SortMergeJoin LeftOuter (13)
               :- Sort (5)
               :  +- ShuffleQueryStage (4)
               :     +- Exchange (3)
               :        +- * ColumnarToRow (2)
               :           +- Scan orc table (1)
               +- Sort (12)
                  +- ShuffleQueryStage (11)
                     +- Exchange (10)
                        +- * Project (9)
                           +- * Filter (8)
                              +- * ColumnarToRow (7)
                                 +- Scan orc mapping_tb (6)

從這里可以看出SortMergeJoin之后做窗口操作,并沒有做Shuffle,而是直接接了一個Sort操作,這就是復用分區
出于對比我們將上述的SQL做調整并比較執行計劃。

select *
from (
  select *, row_number() over (partition by id2, fid order by client_time desc) rn
  from (
      select a.*, b.col
      from table as a
      left join mapping_tb as b
      on a.id = b.id
  ) as a
) as a
where rn = 1

執行計劃如下:

+- Filter (18)
   +- Window (17)
      +- Sort (16)
         +- Exchange (15)
            +- Project (14)
               +- SortMergeJoin LeftOuter (13)
                  :- Sort (5)
                  :  +- ShuffleQueryStage (4)
                  :     +- Exchange (3)
                  :        +- * ColumnarToRow (2)
                  :           +- Scan orc table (1)
                  +- Sort (12)
                     +- ShuffleQueryStage (11)
                        +- Exchange (10)
                           +- * Project (9)
                              +- * Filter (8)
                                 +- * ColumnarToRow (7)
                                    +- Scan orc mapping_tb (6)

可以看到,修改之后的SQL執行計劃多了一個Exchange (15),說明這里需要再做一次Shuffle。
實際在執行過程中,Shuffle采用了id做分區,Shuffle的數據量能減少大概1倍,而且后續沒有再次的shuffle,即我們將shuffle的數據量減少了1倍。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,546評論 6 533
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,570評論 3 418
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,505評論 0 376
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,017評論 1 313
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,786評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,219評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,287評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,438評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,971評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,796評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,995評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,540評論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,230評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,662評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,918評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,697評論 3 392
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,991評論 2 374

推薦閱讀更多精彩內容

  • 優化之前必須對要處理的數據量有一個充分的認識,比如:1.哪些數據是需要的,哪些是不需要的,數據過濾可否提前;2.多...
    zhglance閱讀 562評論 2 4
  • 轉自:http://lxw1234.com/archives/2016/05/661.htmhttp://lxw1...
    Jorvi閱讀 195評論 0 0
  • 一.Spark 性能優化概述 首先筆者能力優先,使用Spark有一段時間,如下是筆者的工作經驗的總結。 Spark...
    只是甲閱讀 357評論 0 0
  • 1.1、 分配更多資源 1.1.1、分配哪些資源? Executor的數量 每個Executor所能分配的CPU數...
    miss幸運閱讀 3,196評論 3 15
  • RDD RDD的全稱是:Resilient Distributed Dataset (彈性分布式數據集) 五個關鍵...
    阿濤哥閱讀 561評論 0 0