最清晰易懂的 Go WaitGroup 源碼剖析

hi,大家好,我是haohongfan。

本篇主要介紹 WaitGroup 的一些特性,讓我們從本質上去了解 WaitGroup。關于 WaitGroup 的基本用法這里就不做過多介紹了。相對于《這可能是最容易理解的 Go Mutex 源碼剖析》來說,WaitGroup 就簡單的太多了。

源碼剖析

Add()

add

Wait()

wait
type WaitGroup struct {
    noCopy noCopy
    state1 [3]uint32
}

WaitGroup 底層結構看起來簡單,但 WaitGroup.state1 其實代表三個字段:counter,waiter,sema。

  • counter :可以理解為一個計數器,計算經過 wg.Add(N), wg.Done() 后的值。
  • waiter :當前等待 WaitGroup 任務結束的等待者數量。其實就是調用 wg.Wait() 的次數,所以通常這個值是 1 。
  • sema : 信號量,用來喚醒 Wait() 函數。

為什么要將 counter 和 waiter 放在一起 ?

其實是為了保證 WaitGroup 狀態的完整性。舉個例子,看下面的一段源碼

// sync/waitgroup.go:L79 --> Add()
if v > 0 || w == 0 { // v => counter, w => waiter
    return
}
// ...
*statep = 0
for ; w != 0; w-- {
    runtime_Semrelease(semap, false, 0)
}

當同時發現 wg.counter <= 0 && wg.waiter != 0 時,才會去喚醒等待的 waiters,讓等待的協程繼續運行。但是使用 WaitGroup 的調用方一般都是并發操作,如果不同時獲取的 counter 和 waiter 的話,就會造成獲取到的 counter 和 waiter 可能不匹配,造成程序 deadlock 或者程序提前結束等待。

如何獲取 counter 和 waiter ?

對于 wg.state 的狀態變更,WaitGroup 的 Add(),Wait() 是使用 atomic 來做原子計算的(為了避免鎖競爭)。但是由于 atomic 需要使用者保證其 64 位對齊,所以將 counter 和 waiter 都設置成 uint32,同時作為一個變量,即滿足了 atomic 的要求,同時也保證了獲取 waiter 和 counter 的狀態完整性。但這也就導致了 32位,64位機器上獲取 state 的方式并不相同。如下圖:

waitgroup state1

簡單解釋下:

因為 64 位機器上本身就能保證 64 位對齊,所以按照 64 位對齊來取數據,拿到 state1[0], state1[1] 本身就是64 位對齊的。但是 32 位機器上并不能保證 64 位對齊,因為 32 位機器是 4 字節對齊,如果也按照 64 位機器取 state[0],state[1] 就有可能會造成 atmoic 的使用錯誤。

于是 32 位機器上空出第一個 32 位,也就使后面 64 位天然滿足 64 位對齊,第一個 32 位放入 sema 剛好合適。早期 WaitGroup 的實現 sema 是和 state1 分開的,也就造成了使用 WaitGroup 就會造成 4 個字節浪費,不過 go1.11 之后就是現在的結構了。

為什么流程圖里缺少了 Done ?

其實并不是,是因為 Done 的實現就是 Add. 只不過我們常規用法 wg.Add(1) 是加 1 ,wg.Done() 是減 1,即 wg.Done() 可以用 wg.Add(-1) 來代替。 盡管我們知道 wg.Add 可以傳遞負數當 wg.Done 使用,但是還是別這么用。

退出waitgroup的條件

其實就一個條件, WaitGroup.counter 等于 0

日常開發中特殊需求

1. 控制超時/錯誤控制

雖說 WaitGroup 能夠讓主 Goroutine 等待子 Goroutine 退出,但是 WaitGroup 遇到一些特殊的需求,如:超時,錯誤控制,并不能很好的滿足,需要做一些特殊的處理。

用戶在電商平臺中購買某個貨物,為了計算用戶能優惠的金額,需要去獲取 A 系統(權益系統),B 系統(角色系統),C 系統(商品系統),D 系統(xx系統)。為了提高程序性能,可能會同時發起多個 Goroutine 去訪問這些系統,必然會使用 WaitGroup 等待數據的返回,但是存在一些問題:

  1. 當某個系統發生錯誤,等待的 Goroutine 如何感知這些錯誤?
  2. 當某個系統響應過慢,等待的 Goroutine 如何控制訪問超時?

這些問題都是直接使用 WaitGroup 沒法處理的。如果直接使用 channel 配合 WaitGroup 來控制超時和錯誤返回的話,封裝起來并不簡單,而且還容易出錯。我們可以采用 ErrGroup 來代替 WaitGroup。

有關 ErrGroup 的用法這里就不再闡述。golang.org/x/sync/errgroup

package main

import (
    "context"
    "fmt"
    "golang.org/x/sync/errgroup"
    "time"
)

func main() {
    ctx, cancel := context.WithTimeout(context.Background(), time.Second*5)
    defer cancel()
    errGroup, newCtx := errgroup.WithContext(ctx)

    done := make(chan struct{})
    go func() {
        for i := 0; i < 10; i++ {
            errGroup.Go(func() error {
                time.Sleep(time.Second * 10)
                return nil
            })
        }
        if err := errGroup.Wait(); err != nil {
            fmt.Printf("do err:%v\n", err)
            return
        }
        done <- struct{}{}
    }()

    select {
    case <-newCtx.Done():
        fmt.Printf("err:%v ", newCtx.Err())
        return
    case <-done:
    }
    fmt.Println("success")
}

2. 控制 Goroutine 數量

場景模擬:
大概有 2000 - 3000 萬個數據需要處理,根據對服務器的測試,當啟動 200 個 Goroutine 處理時性能最佳。如何控制?

遇到諸如此類的問題時,單純使用 WaitGroup 是不行的。既要保證所有的數據都能被處理,同時也要保證同時最多只有 200 個 Goroutine。這種問題需要 WaitGroup 配合 Channel 一塊使用。

package main

import (
    "fmt"
    "sync"
    "time"
)

func main() {
    var wg = sync.WaitGroup{}
    manyDataList := []int{1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
    ch := make(chan bool, 3)
    for _, v := range manyDataList {
        wg.Add(1)
        go func(data int) {
            defer wg.Done()

            ch <- true
            fmt.Printf("go func: %d, time: %d\n", data, time.Now().Unix())
            time.Sleep(time.Second)
            <-ch
        }(v)
    }
    wg.Wait()
}

使用注意點

使用 WaitGroup 同樣不能被復制。具體例子就不再分析了。具體分析過程可以參見《這可能是最容易理解的 Go Mutex 源碼剖析》

WaitGroup 的剖析到這里基本就結束了。有什么想跟我交流的,歡迎評論區留言。

歡迎關注我的公眾號:HHFCodeRV,一起學習一起進步

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,345評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,494評論 3 416
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 176,283評論 0 374
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,953評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,714評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,186評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,255評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,410評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,940評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,776評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,976評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,518評論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,210評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,642評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,878評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,654評論 3 391
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,958評論 2 373

推薦閱讀更多精彩內容