每次發(fā)現(xiàn)系統(tǒng)變慢時,我們通常做的第一件事,就是執(zhí)行 top 或者 uptime 命令,來了解系統(tǒng)的負(fù)載情況。比如像下面這樣,我在命令行里輸入了 uptime 命令,系統(tǒng)也隨即給出了結(jié)果。
$ uptime
02:34:03 up 2 days, 20:14, 1 user, load average: 0.63, 0.83, 0.88
最后三個數(shù)字呢,依次則是過去 1 分鐘、5 分鐘、15 分鐘的平均負(fù)載(Load Average)。
簡單來說,平均負(fù)載是指單位時間內(nèi),系統(tǒng)處于可運行狀態(tài)和不可中斷狀態(tài)的平均進(jìn)程數(shù),也就是平均活躍進(jìn)程數(shù),它和 CPU 使用率并沒有直接關(guān)系。這里我先解釋下,可運行狀態(tài)和不可中斷狀態(tài)這倆詞兒。
所謂可運行狀態(tài)的進(jìn)程,是指正在使用 CPU 或者正在等待 CPU 的進(jìn)程,也就是我們常用 ps 命令看到的,處于 R 狀態(tài)(Running 或 Runnable)的進(jìn)程。
不可中斷狀態(tài)的進(jìn)程則是正處于內(nèi)核態(tài)關(guān)鍵流程中的進(jìn)程,并且這些流程是不可打斷的,比如最常見的是等待硬件設(shè)備的 I/O 響應(yīng),也就是我們在 ps 命令中看到的 D 狀態(tài)(Uninterruptible Sleep,也稱為 Disk Sleep)的進(jìn)程。
比如,當(dāng)一個進(jìn)程向磁盤讀寫數(shù)據(jù)時,為了保證數(shù)據(jù)的一致性,在得到磁盤回復(fù)前,它是不能被其他進(jìn)程或者中斷打斷的,這個時候的進(jìn)程就處于不可中斷狀態(tài)。如果此時的進(jìn)程被打斷了,就容易出現(xiàn)磁盤數(shù)據(jù)與進(jìn)程數(shù)據(jù)不一致的問題。
所以,不可中斷狀態(tài)實際上是系統(tǒng)對進(jìn)程和硬件設(shè)備的一種保護(hù)機(jī)制。
因此,你可以簡單理解為,平均負(fù)載其實就是平均活躍進(jìn)程數(shù)。平均活躍進(jìn)程數(shù),直觀上的理解就是單位時間內(nèi)的活躍進(jìn)程數(shù),但它實際上是活躍進(jìn)程數(shù)的指數(shù)衰減平均值。這個“指數(shù)衰減平均”的詳細(xì)含義你不用計較,這只是系統(tǒng)的一種更快速的計算方式,你把它直接當(dāng)成活躍進(jìn)程數(shù)的平均值也沒問題。
既然平均的是活躍進(jìn)程數(shù),那么最理想的,就是每個 CPU 上都剛好運行著一個進(jìn)程,這樣每個 CPU 都得到了充分利用。比如當(dāng)平均負(fù)載為 2 時,意味著什么呢?
- 在只有 2 個 CPU 的系統(tǒng)上,意味著所有的 CPU 都剛好被完全占用。
- 在 4 個 CPU 的系統(tǒng)上,意味著 CPU 有 50% 的空閑。
- 而在只有 1 個 CPU 的系統(tǒng)中,則意味著有一半的進(jìn)程競爭不到 CPU。
平均負(fù)載為多少時合理
講完了什么是平均負(fù)載,現(xiàn)在我們再回到最開始的例子,不知道你能否判斷出,在 uptime 命令的結(jié)果里,那三個時間段的平均負(fù)載數(shù),多大的時候能說明系統(tǒng)負(fù)載高?或是多小的時候就能說明系統(tǒng)負(fù)載很低呢?
我們知道,平均負(fù)載最理想的情況是等于 CPU 個數(shù)。所以在評判平均負(fù)載時,首先你要知道系統(tǒng)有幾個 CPU,這可以通過 top 命令或者從文件 /proc/cpuinfo 中讀取,比如:
# 關(guān)于grep和wc的用法請查詢它們的手冊或者網(wǎng)絡(luò)搜索
$ grep 'model name' /proc/cpuinfo | wc -l
2
有了 CPU 個數(shù),我們就可以判斷出,當(dāng)平均負(fù)載比 CPU 個數(shù)還大的時候,系統(tǒng)已經(jīng)出現(xiàn)了過載。
不過,且慢,新的問題又來了。我們在例子中可以看到,平均負(fù)載有三個數(shù)值,到底該參考哪一個呢?
實際上,都要看。三個不同時間間隔的平均值,其實給我們提供了,分析系統(tǒng)負(fù)載趨勢的數(shù)據(jù)來源,讓我們能更全面、更立體地理解目前的負(fù)載狀況。
打個比方,就像初秋時北京的天氣,如果只看中午的溫度,你可能以為還在 7 月份的大夏天呢。但如果你結(jié)合了早上、中午、晚上三個時間點的溫度來看,基本就可以全方位了解這一天的天氣情況了。
同樣的,前面說到的 CPU 的三個負(fù)載時間段也是這個道理。
- 如果 1 分鐘、5 分鐘、15 分鐘的三個值基本相同,或者相差不大,那就說明系統(tǒng)負(fù)載很平穩(wěn)。
- 但如果 1 分鐘的值遠(yuǎn)小于 15 分鐘的值,就說明系統(tǒng)最近 1 分鐘的負(fù)載在減少,而過去 15 分鐘內(nèi)卻有很大的負(fù)載。
- 反過來,如果 1 分鐘的值遠(yuǎn)大于 15 分鐘的值,就說明最近 1 分鐘的負(fù)載在增加,這種增加有可能只是臨時性的,也有可能還會持續(xù)增加下去,所以就需要持續(xù)觀察。一旦 1 分鐘的平均負(fù)載接近或超過了 CPU 的個數(shù),就意味著系統(tǒng)正在發(fā)生過載的問題,這時就得分析調(diào)查是哪里導(dǎo)致的問題,并要想辦法優(yōu)化了。
這里我再舉個例子,假設(shè)我們在一個單 CPU 系統(tǒng)上看到平均負(fù)載為 1.73,0.60,7.98,那么說明在過去 1 分鐘內(nèi),系統(tǒng)有 73% 的超載,而在 15 分鐘內(nèi),有 698% 的超載,從整體趨勢來看,系統(tǒng)的負(fù)載在降低。
那么,在實際生產(chǎn)環(huán)境中,平均負(fù)載多高時,需要我們重點關(guān)注呢?
在我看來,當(dāng)**平均負(fù)載高于 CPU 數(shù)量 70% **的時候,你就應(yīng)該分析排查負(fù)載高的問題了。一旦負(fù)載過高,就可能導(dǎo)致進(jìn)程響應(yīng)變慢,進(jìn)而影響服務(wù)的正常功能。
但 70% 這個數(shù)字并不是絕對的,最推薦的方法,還是把系統(tǒng)的平均負(fù)載監(jiān)控起來,然后根據(jù)更多的歷史數(shù)據(jù),判斷負(fù)載的變化趨勢。當(dāng)發(fā)現(xiàn)負(fù)載有明顯升高趨勢時,比如說負(fù)載翻倍了,你再去做分析和調(diào)查。
平均負(fù)載與 CPU 使用率
現(xiàn)實工作中,我們經(jīng)常容易把平均負(fù)載和 CPU 使用率混淆,所以在這里,我也做一個區(qū)分。
可能你會疑惑,既然平均負(fù)載代表的是活躍進(jìn)程數(shù),那平均負(fù)載高了,不就意味著 CPU 使用率高嗎?
我們還是要回到平均負(fù)載的含義上來,平均負(fù)載是指單位時間內(nèi),處于可運行狀態(tài)和不可中斷狀態(tài)的進(jìn)程數(shù)。所以,它不僅包括了正在使用 CPU 的進(jìn)程,還包括等待 CPU 和等待 I/O 的進(jìn)程。
而 CPU 使用率,是單位時間內(nèi) CPU 繁忙情況的統(tǒng)計,跟平均負(fù)載并不一定完全對應(yīng)。比如:
- CPU 密集型進(jìn)程,使用大量 CPU 會導(dǎo)致平均負(fù)載升高,此時這兩者是一致的;
- I/O 密集型進(jìn)程,等待 I/O 也會導(dǎo)致平均負(fù)載升高,但 CPU 使用率不一定很高;
- 大量等待 CPU 的進(jìn)程調(diào)度也會導(dǎo)致平均負(fù)載升高,此時的 CPU 使用率也會比較高。
平均負(fù)載案例分析
下面,我們以三個示例分別來看這三種情況,并用 iostat、mpstat、pidstat 等工具,找出平均負(fù)載升高的根源。
下面的案例都是基于 Ubuntu 18.04,當(dāng)然,同樣適用于其他 Linux 系統(tǒng)。我使用的案例環(huán)境如下所示。
- 機(jī)器配置:2 CPU,8GB 內(nèi)存。
- 預(yù)先安裝 stress 和 sysstat 包,如 apt install stress sysstat。
在這里,我先簡單介紹一下 stress 和 sysstat。
stress 是一個 Linux 系統(tǒng)壓力測試工具,這里我們用作異常進(jìn)程模擬平均負(fù)載升高的場景。
而 sysstat 包含了常用的 Linux 性能工具,用來監(jiān)控和分析系統(tǒng)的性能。我們的案例會用到這個包的兩個命令 mpstat 和 pidstat。
- mpstat 是一個常用的多核 CPU 性能分析工具,用來實時查看每個 CPU 的性能指標(biāo),以及所有 CPU 的平均指標(biāo)。
- pidstat 是一個常用的進(jìn)程性能分析工具,用來實時查看進(jìn)程的 CPU、內(nèi)存、I/O 以及上下文切換等性能指標(biāo)。
此外,每個場景都需要你開三個終端,登錄到同一臺 Linux 機(jī)器中。
實驗之前,你先做好上面的準(zhǔn)備。如果包的安裝有問題,可以先在 Google 一下自行解決,如果還是解決不了,再來留言區(qū)找我,這事兒應(yīng)該不難。
另外要注意,下面的所有命令,我們都是默認(rèn)以 root 用戶運行。所以,如果你是用普通用戶登陸的系統(tǒng),一定要先運行 sudo su root 命令切換到 root 用戶。
如果上面的要求都已經(jīng)完成了,你可以先用 uptime 命令,看一下測試前的平均負(fù)載情況:
$ uptime
..., load average: 0.11, 0.15, 0.09
場景一:CPU 密集型進(jìn)程
首先,我們在第一個終端運行 stress 命令,模擬一個 CPU 使用率 100% 的場景:
$ stress --cpu 1 --timeout 600
接著,在第二個終端運行 uptime 查看平均負(fù)載的變化情況:
# -d 參數(shù)表示高亮顯示變化的區(qū)域
$ watch -d uptime
..., load average: 1.00, 0.75, 0.39
最后,在第三個終端運行 mpstat 查看 CPU 使用率的變化情況:
# -P ALL 表示監(jiān)控所有CPU,后面數(shù)字5表示間隔5秒后輸出一組數(shù)據(jù)
$ mpstat -P ALL 5
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:30:06 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:30:11 all 50.05 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 49.95
13:30:11 0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00
13:30:11 1 100.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
從終端二中可以看到,1 分鐘的平均負(fù)載會慢慢增加到 1.00,而從終端三中還可以看到,正好有一個 CPU 的使用率為 100%,但它的 iowait 只有 0。這說明,平均負(fù)載的升高正是由于 CPU 使用率為 100% 。
那么,到底是哪個進(jìn)程導(dǎo)致了 CPU 使用率為 100% 呢?你可以使用 pidstat 來查詢:
# 間隔5秒后輸出一組數(shù)據(jù)
$ pidstat -u 5 1
13:37:07 UID PID %usr %system %guest %wait %CPU CPU Command
13:37:12 0 2962 100.00 0.00 0.00 0.00 100.00 1 stress
從這里可以明顯看到,stress 進(jìn)程的 CPU 使用率為 100%。
場景二:I/O 密集型進(jìn)程
首先還是運行 stress 命令,但這次模擬 I/O 壓力,即不停地執(zhí)行 sync:
$ stress -i 1 --timeout 600
還是在第二個終端運行 uptime 查看平均負(fù)載的變化情況:
$ watch -d uptime
..., load average: 1.06, 0.58, 0.37
然后,第三個終端運行 mpstat 查看 CPU 使用率的變化情況:
# 顯示所有CPU的指標(biāo),并在間隔5秒輸出一組數(shù)據(jù)
$ mpstat -P ALL 5 1
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:41:28 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:41:33 all 0.21 0.00 12.07 32.67 0.00 0.21 0.00 0.00 0.00 54.84
13:41:33 0 0.43 0.00 23.87 67.53 0.00 0.43 0.00 0.00 0.00 7.74
13:41:33 1 0.00 0.00 0.81 0.20 0.00 0.00 0.00 0.00 0.00 98.99
從這里可以看到,1 分鐘的平均負(fù)載會慢慢增加到 1.06,其中一個 CPU 的系統(tǒng) CPU 使用率升高到了 23.87,而 iowait 高達(dá) 67.53%。這說明,平均負(fù)載的升高是由于 iowait 的升高。
那么到底是哪個進(jìn)程,導(dǎo)致 iowait 這么高呢?我們還是用 pidstat 來查詢:
# 間隔5秒后輸出一組數(shù)據(jù),-u表示CPU指標(biāo)
$ pidstat -u 5 1
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:42:08 UID PID %usr %system %guest %wait %CPU CPU Command
13:42:13 0 104 0.00 3.39 0.00 0.00 3.39 1 kworker/1:1H
13:42:13 0 109 0.00 0.40 0.00 0.00 0.40 0 kworker/0:1H
13:42:13 0 2997 2.00 35.53 0.00 3.99 37.52 1 stress
13:42:13 0 3057 0.00 0.40 0.00 0.00 0.40 0 pidstat
從這里可以看到,1 分鐘的平均負(fù)載會慢慢增加到 1.06,其中一個 CPU 的系統(tǒng) CPU 使用率升高到了 23.87,而 iowait 高達(dá) 67.53%。這說明,平均負(fù)載的升高是由于 iowait 的升高。
可以發(fā)現(xiàn),還是 stress 進(jìn)程導(dǎo)致的。
場景三:大量進(jìn)程的場景
當(dāng)系統(tǒng)中運行進(jìn)程超出 CPU 運行能力時,就會出現(xiàn)等待 CPU 的進(jìn)程。
比如,我們還是使用 stress,但這次模擬的是 8 個進(jìn)程:
$ stress -c 8 --timeout 600
由于系統(tǒng)只有 2 個 CPU,明顯比 8 個進(jìn)程要少得多,因而,系統(tǒng)的 CPU 處于嚴(yán)重過載狀態(tài),平均負(fù)載高達(dá) 7.97:
$ uptime
..., load average: 7.97, 5.93, 3.02
接著再運行 pidstat 來看一下進(jìn)程的情況:
# 間隔5秒后輸出一組數(shù)據(jù)
$ pidstat -u 5 1
14:23:25 UID PID %usr %system %guest %wait %CPU CPU Command
14:23:30 0 3190 25.00 0.00 0.00 74.80 25.00 0 stress
14:23:30 0 3191 25.00 0.00 0.00 75.20 25.00 0 stress
14:23:30 0 3192 25.00 0.00 0.00 74.80 25.00 1 stress
14:23:30 0 3193 25.00 0.00 0.00 75.00 25.00 1 stress
14:23:30 0 3194 24.80 0.00 0.00 74.60 24.80 0 stress
14:23:30 0 3195 24.80 0.00 0.00 75.00 24.80 0 stress
14:23:30 0 3196 24.80 0.00 0.00 74.60 24.80 1 stress
14:23:30 0 3197 24.80 0.00 0.00 74.80 24.80 1 stress
14:23:30 0 3200 0.00 0.20 0.00 0.20 0.20 0 pidstat
可以看出,8 個進(jìn)程在爭搶 2 個 CPU,每個進(jìn)程等待 CPU 的時間(也就是代碼塊中的 %wait 列)高達(dá) 75%。這些超出 CPU 計算能力的進(jìn)程,最終導(dǎo)致 CPU 過載。
小結(jié)
平均負(fù)載提供了一個快速查看系統(tǒng)整體性能的手段,反映了整體的負(fù)載情況。但只看平均負(fù)載本身,我們并不能直接發(fā)現(xiàn),到底是哪里出現(xiàn)了瓶頸。所以,在理解平均負(fù)載時,也要注意:
- 平均負(fù)載高有可能是 CPU 密集型進(jìn)程導(dǎo)致的;
- 平均負(fù)載高并不一定代表 CPU 使用率高,還有可能是 I/O 更繁忙了;
- 當(dāng)發(fā)現(xiàn)負(fù)載高的時候,你可以使用 mpstat、pidstat 等工具,輔助分析負(fù)載的來源。