本文翻譯自 Thinking Clearly About Performance 這是我三年前讀到的一篇關于性能問題的好文,讀完后還覺不過癮,怕理解的不夠遂又翻譯了一遍,這也是當年我的第一次翻譯。
這幾年來每次碰到性能問題,我都會想起這篇文章,它并不像很多其他關于性能問題的文章,告訴你利用什么工具怎么去解決性能問題,這類文章更多屬于「術」的層面,而術的層面在不同的技術棧會有很不同的選擇。而本文則高屋建瓴的幫助讀者建立起對性能的正確認識,從而能夠獲得更全面的視角去看待和思考性能問題。這是「道」的層面,正所謂道法自然,術變萬千,深刻理解了「道」,那么面對性能問題的萬千之「術」才不會那么茫然。
文章略長,建議先收藏,稍后合適時抽出一塊時間來細細讀之,當有所獲。
摘要
對于開發者、技術管理者、架構師、系統分析師和項目經理來說,創建具備高性能特征的復雜軟件都是一件極其困難的事。然而,通過了解一些基本原理,性能問題的解決和預防可以更簡單可靠。本文講述了這些基本原理,涵蓋了一系列的目標、術語、工具和決策,綜合利用好它們來最大可能的創建一個長期有效的高性能應用。本文的一些例子來自于 Oracle 的經驗,但本文的范圍并不局限于 Oracle 的產品。
目錄
- 公理化方法
- 什么是性能?
- 響應時間 VS. 吞吐量
- 百分比指標
- 問題診斷
- 序列圖
- 性能剖析
- 阿姆達爾定律
- 偏斜度
- 最小化風險
- 效率
- 負載
- 隊列延遲
- 拐點
- 拐點的相關性
- 容量規劃
- 隨機到達
- 相關性延遲
- 性能測試
- 測量
- 性能是一項功能特性
- 尾聲:關于「拐點」的公開辯論
- 關于作者
- 參考
1. 公理化方法
當我在 1989 年加入 Oracle 公司時,解決性能問題(人們通常說的是 Oracle 調優)是很困難的。 只有少部分人聲稱他們很擅長這個,很多人都去咨詢他們。 當時,我進到 Oracle 調優這個領域時,我完全沒準備好。 最近我又開始對 MySQL 進行調優,這看起來和我 20 年前在 Oracle 公司做的差不多。
它讓我想起了當我 13 歲剛接觸代數學時是多么的困難。 在那個年齡我只能依靠「數學直覺」來解決類似 3x + 4 = 13 這樣的方程。 問題是我們之中大部分人都沒有所謂的「數學直覺」。 我記得當看到這樣的問題: 3x + 4 = 13 求解 x,只能采用試錯法偶然發現 x 應該是3。
試錯法給我的感覺雖然能解決一些簡單的方程式,但很慢而且不爽。 一旦等式稍有變化如 3x + 4 = 14,試錯法就不能適應。 那么該怎么辦呢?當時我沒有好好思考過,直到 15 歲時 James R. Harkey 指引我走上正確的道路。
Harkey 先生教會我使用公理方法來解決代數方程問題。他給我們展示了一系列的步驟(還給了我很多家庭作業進行練習)。做作業時除了記錄下這些步驟,還要寫下我們是如何思考的。這樣我們不僅自己想得很清楚,而且通過一系列可靠的、可重復的步驟來向閱讀我們作業的人證明了我們確實搞明白了。 Harkey 先生看到的我的作業像下面這樣:
3.1x + 4 = 13
待求解方程
3.1x + 4 - 4 = 13 - 4
減去相等的值
3.1x = 9
加法逆運算,化簡
3.1x ∕ 3.1 = 9 ∕ 3.1
除以相等的值
x ≈ 2.903
乘法逆運算,化簡求解
這就是 Harkey 先生教導的適用于代數學、幾何學、三角學和微積分的公理化方法。 由一系列符合邏輯的、可證明的和可審計的小步驟組成。這是我第一次真正從數學中學到的東西。
自然,當時我沒能認識到其中的價值,但證明作為一種技能對我后來的成功至關重要。我發現在生活中,知道一件事很重要,但能向別人講清楚(證明)更重要。沒有好的證明技能,就很難成為一名好的顧問、好的領導甚至好的員工。
我在上世紀 90 年代中期的目標是為 Oracle 性能優化創建一套類似的、嚴格的公理化方法。后來我將其擴展到了 Oracle 之外,建立了一套適用于所有計算機軟件性能優化的公理化方法。好吧,我發現并非所有人都喜歡這種說法,那我們換一種說法:
我們的目標就是幫助你想清楚如何優化你的軟件系統性能。
2. 什么是性能?
假如你去 Google 下 Performance 這個關鍵字,可能會得到 5 億個鏈接。 其中涉及的內容范圍可能從自行車比賽到可怕的員工審查流程(如今很多公司已經學會了避免這個流程)。但假如我去 Google 下 Performance 這個關鍵字,大部分的首頁鏈接都會與這篇文章的主題有關:計算機軟件執行無論何種任務所花費的時間。
任務這個詞是一個很適合的開始。任務是一個面向業務的工作單元。任務能夠嵌套:打印發貨單是一個任務,打印一張發貨單(一個子任務)也是一個任務。當一個用戶說起性能時,他通常指的是系統執行一系列任務所花費的時間。響應時間 是任務的執行時長,用每個任務的時間來度量,像每點擊秒數。例如我用 Google 搜索關鍵字 Performance 的響應時間是 0.24 秒。 這個數據來自我的瀏覽器它渲染完 Google 網頁花費的時間,那么很明顯,這量化了我對 Google 性能的直覺感知。
一些人對另外一個性能指標很感興趣:吞吐量。 吞吐量 是在一個特定時間段內完成的任務的計數,例如:每秒點擊數。通常為一群人提供服務比為個別人提供服務的人更關心吞吐量。例如,一個獨立會計會更關心日報的響應時間是否會導致今晚需要加班,而會計部的經理更關心系統的是否能支撐所有的會計處理完今天的數據。
3. 響應時間 VS. 吞吐量
通常來講,響應時間和吞吐量是一個倒數關系(響應時間越長吞吐量越低),但這并不確切。 實際情況更微妙、復雜一些。
例 1
假如,在一些性能基準測試中,你的系統的測量結果是每秒能處理 1000 個任務,那么用戶的平均響應時間是多少? 你可能會說平均響應時間等于 1 / 1000 = 0.001 秒/每任務,但它真不是這樣的。
假如在你的系統內部擁有 1000 個相同的、獨立的、并行的服務執行通道,每個通道都在等待請求到來并提供服務。 在這種情況下,每個請求其實花費了 1 秒。
現在我們知道,平均響應時間其實應該在每任務 0 秒到 1 秒之間。 但是我們不能僅僅從吞吐量的測量數據中推導出平均響應時間。(事實上存在數學模型從吞吐量推導出平均響應時間,但這個模型要求更多的輸入參數,而不僅僅是吞吐量) 你必須單獨測量它。
反過來說也是一樣的,你應該能從我上面給出的例子中得到啟發。 下面是一個更有趣的例子。
例 2
你的客戶要求一個新任務必須滿足在單核 CPU 的計算機上達到每秒 100 的吞吐量。 假如這個新任務在客戶的系統上執行一次需要 0.001 秒。 那么你的程序能夠滿足客戶要求的吞吐量么?
你可能會說,跑一次這個任務只需要千分之一秒,那么在一秒內完成 100 次顯然是綽綽有余的。 恩,是的,你很正確,假如這個任務被很好的串行化了。 例如,你的程序處理 100 個任務執行請求是在一個循環中,一個接一個的執行,那就是正確的。
但是如果這 100 個任務到達你的系統是完全隨機的來自 100 個不同的用戶,那該怎么辦呢?CPU 調度器和串行資源(Oracle 的閂和鎖,內存可寫緩沖區訪問)這些糟糕的實際情況會嚴格限制你的并發吞吐量低于每秒 100。 最終,你可能會達到客戶的期望也可能達不到。 你不能僅僅從響應時間推導出吞吐量,你必須單獨測量吞吐量。
所以,響應時間和吞吐量不是那么簡單的互為倒數關系。 你想要知道這兩個指標,就必須一起測量它們。那么響應時間和吞吐量到底哪一個更重要呢? 在一些場景下,說哪一個都是合理的。 但在大多數情況下,兩者都同樣重要。 因為,對系統來說它的業務需求通常是這樣的,在大于 99% 的情況下響應時間要少于 1 秒,并且能支持 10 分鐘內持續不低于 1000 的吞吐量。
4. 百分比指標
在上一節,我用了“大于 99%”這樣的描述來表達對響應時間的期望。 但大部分人可能更習慣于這樣的描述:“平均響應時間少于 r 秒”。 但從經驗的角度,使用百分比方式更好。
例 3
假想每天運行在你的計算機上的任務的響應時間的容忍極限是 1 秒。進一步假設「表1」列出了該任務執行 10 次的測量值。 這兩個列表的平均響應時間都是 1 秒。哪一個你認為更好?
雖然你看到兩個列表擁有同樣的平均響應時間,但本質上差別很大。ListA 90% 的響應時間是低于 1 秒的,而 ListB 只有 60% 的時間是低于 1 秒的。從用戶體驗的角度來說,ListB 表明會有 40% 的用戶會感到不滿意,而 ListA 僅有 10% 的不滿意率,雖然它們平均響應時間相同。
ListA 90% 的響應時間是 0.987 秒,而 ListB 90% 的響應時間是 1.273 秒。 因此使用百分比描述的響應時間比平均響應時間包含更多的信息量。
正如 GE 公司所說:“客戶感受到的是差異變化,而非平均”。(參見GE的《什么是六西格瑪》) 可見使用百分比來描述響應時間更符合終端用戶的期望:例如,99.9% 的跟蹤貨運單的任務必須在 0.5 秒內完成。
5. 問題診斷
最近我被邀請去解決的一些性能問題的描述都是些關于響應時間的。 如:“過去只用不到 1 秒的時間就能完成 X 任務,但是現在卻需要 20 秒。” 當然,一些真正的問題隱藏在其他一些問題描述的表象背后,例如:“我們的系統變的很慢,完全沒法用了。”
雖然我經常碰到類似這樣的表述,但并不意味著你應該這樣去描述問題。 首先你得清晰得描述問題本身,才可能把它們弄清楚。 一個好辦法是去詢問,你想要達到得目標狀態是怎樣的呢? 找到一些細節,你可以用量化的方式來表達它們。 例如:執行 X 任務大部分情況下都超過 20 秒,希望能在 95% 的情況下小于 1 秒。
理論上這聽起來很棒,但要是你的用戶根本沒有很具體的可以量化的目標呢?或者你的用戶根本就不知道怎樣去量化,更糟糕的情況是你的用戶如果還有一些完全不切實際的期望怎么辦?你如何知道到底什么是“可能的”,什么是“不切實際的”?
好吧,下面我們繼續探討這些問題。
6. 序列圖
序列圖是一種 UML(統一建模語言)中定義的圖形種類,用于表達對象間交互的發生順序。序列圖特別適合用于可視化的表達響應時間。 在「圖1」中,我們展示了一個由瀏覽器、應用服務器和數據庫構成的簡單應用系統的序列圖。
假如我們擴展下序列圖的表示,讓請求和響應之間距離表示服務該請求的消耗時長。 在「圖2」中我展示了一個擴展后的序列圖。
通過「圖2」你可以很直觀的看到到底是哪個部分消耗了最多的時間。你能直觀的感受到整個響應時間在各個部分的構成。序列圖很好的幫助人們從概念上直觀的理解一個任務如何在系統各個部分之間順序流轉的。序列圖也能很好的表達并行執行的任務。序列圖也是一個很棒的工具用于在業務層次分析性能問題。
序列圖是很好的描述性能問題的概念工具,但要把性能問題分析清楚我們還需要其他的。序列圖的問題是,假設有個任務花費了 2468 秒才執行完成(大約 41 分 8 秒)。 在這 41 分鐘里,應用服務器和數據庫大約交互了 322968 次。 把這個過程畫成序列圖大概就是下面「圖3」的樣子:
在應用服務器和數據庫之間有如此之多的箭頭,以至于你完全看不清細節了。我們可能需要花費數周才能畫完這個圖,但這并不是一個有效的方法。序列圖雖然很好的概念可視化了任務的執行流和時間流,但要仔細分析清楚響應時間的問題我們還需要別的工具。
7. 性能剖析
對于像上述這種擁有大量調用交互的情況,序列圖不能很好的描述。我們需要一種更方便的聚合視圖來更容易的理解到底哪個部分消耗了最多的時間。 「表2」給出了一個性能剖析的例子。性能剖析是對響應時間的表格化分解,按響應時長倒序排列如下。
例 4
「表2」中的性能剖析是很初級的,但它能告訴你最慢的 8 個任務占用了 2468 秒。從中你大概可以得到每個函數的響應時長占比。也可以從中算出每個函數調用的平均響應時間。
性能剖析指出了哪些代碼花費了你的時間,也許更重要的是告訴你哪些代碼并沒有花費太多時間。當你不得不去猜測代碼的性能瓶頸時,性能剖析是有巨大價值的。
從「表2」的數據表明,大約 70.8% 的響應時間消耗在了 DB:Fetch()
這個方法上。如果你進一步深入方法調用中會發現 App:await_db_netIO()
方法與 DB:Fetch()
的一一對應關系。于是能知道每個部分消耗了多少時間,通過性能剖析你開始能夠明確的回答像這樣的問題:“這個任務需要運行多長時間?”從第 5 節你可以知道,對問題診斷的第一步來說這是一個很重要的問題。
8. 阿姆達爾定律
性能剖析能幫你分析清楚性能問題。即便吉恩·阿姆達爾(Gene Amdahl)在 1967 年沒有告訴我們阿姆達爾定律,你也可以在看到性能剖析表格時自己歸納出來。阿姆達爾定律指出:
系統中對某一部件采用更快執行方式所能獲得的系統性能改進程度,取決于這種執行方式被使用的頻率,或所占總執行時間的比例。
所以如果你嘗試改進的部分只占總響應間的 5%,那么對總響應時間的提高最多不會超過 5%。這意味著你改進的部分在性能剖析列表中排位越高(假設它們按倒序排列),你獲得的收益就越大。
但這并不意味著你一定要按照性能剖析列表的順序從高到低進行改進,這里你還需要考慮改進的成本問題。
例 5
看下「表3」,它基本和「表2」一樣。「表3」額外給出了你實施最好的改進方案所能達到的效果以及相應的實施成本。
那么你應該先實現哪一項改進呢?阿姆達爾定律告訴我們改進第一項的潛在收益最大,大約可以減少851秒(34.5% * 2468秒)。但改進第一項真的非常昂貴,那么改進第二項也許能產生更多的凈收益。這才是我們真正需要改進的瓶頸所在,盡管它僅能節省大約 303 秒。
性能剖析的巨大價值在于你能夠確切的了解你預期的投資能獲得多大的改進,它為你的改進實施方案提供了決策支持,為你在預測給性能問題的度量時提供了參照。當你能夠找到一種比預期成本更低,減少響應時間比預期更多的改進方式時,這給你了一個很好展示聰明才智的機會。
你首先實施哪一項改進,歸結于你對成本評估有多大把握。簡單省事的改進的措施是否考慮了改進可能造成的系統風險?一個很簡單的改進,例如調整了某個參數,取消了一個索引可能會潛在的破壞了一些目前性能表現良好的功能,而你又完全沒考慮倒。靠譜的成本評估則是展現你技術能力的另一個領域了。
另一個因素值得考慮的是,你可以通過一些小的成功來積累政治資本。也許一些便宜低風險的改進并不能帶來響應時間的大幅度降低,但可以通過跟蹤記錄這些小改進來印證你對響應時間提升的預測。在神話和迷信統治了數十年的軟件性能領域,這些對性能的預測和印證的跟蹤記錄,可以影響你的同事(工程師、經理、客戶)并建立自己的信譽,然后你才可能實施更昂貴的改進方案。
最后提醒一句:當你不斷取得勝利并建議實施成本更高、風險更大的改進措施時,可千萬別掉以輕心。信任是很脆弱的,你做了很多事情才取得信任,但可能只是因為一次粗心大意的錯誤就會摧毀它。
9. 偏斜度
當你使用性能剖析時,你會反復遇到類似這樣的衍生問題。
例 6
從「表2」中可以看到一共調用了 322,968 次 DB:fetch()
方法,花費了 1748.229 秒。假如我們將調用量降低一半,那么響應時間會降低多少?答案絕對不會是降低一半,花點時間思考下面這個更簡單點的例子。
例 7
調用 4 個方法花費了 4 秒鐘,那么減少為調用 2 個方法花費多少時間?答案依賴于我們省掉的調用到底是哪些方法。你可能這樣假設了,每個方法的平均調用時間就是 4 / 4 = 1 秒。但我可沒在問題描述中告訴你每個方法的調用耗時是一樣的。
例 8
假設下面兩種可能性,每個列表列出了 4 個方法調用的響應時間
A = {1, 1, 1, 1}
B = {3.7, .1, .1, .1}
在 A 中響應時間是一致的,所以無論我們省掉了哪兩個調用,最后響應時間都能縮短到 2 秒。但在 B 中,到底省掉哪兩個方法調用對響應時間的影響是有很大差別的。如果我們去掉頭兩個調用,響應時間縮短為 0.2 秒,提升了 95%。但如果我們去掉的是后兩個調用,響應時間變為 3.8 秒,僅僅提升了 5%。
偏斜度表達在一組值中的非一致性程度。正是因為偏斜度的存在,所以你沒法準確的回答我在本節開頭的問題。 讓我們再回頭看看這個例子:
例 9
在不知道偏斜度的前提下,你只能回答響應時間可能減少的范圍是在 0 到 1748.229 秒之間,這也是你能提供的最好的回答了。
盡管如此,假設你有一些額外的信息,如「表4」所示,你就能對最好和最壞的情況進行估算。進一步說,假如你有了「表4」中信息就會很聰明的去特別優化響應時間在 0.01 秒到 0.1秒 之間的那 47,444 個調用。
10. 最小化風險
前面的章節我提到過,當修復一個任務性能問題時可能破壞另一個任務的性能,讓我想起了一件曾經在丹麥發生的事。這個故事很短:
場景
在丹麥的巴勒魯普自治市(M?l?v)的一張橡木餐桌前,大約 10 個人圍坐一起,在用筆記本工作和相互交流。
Cary: 伙計們我快熱死了,你們不介意我打開窗戶放點冷空氣進來吧?
Carel-jan: 為什么你不把你的厚毛衣脫了呢?
完。
在這里,有個樂觀的人都知道的一般性原則在發揮效力:當大家都很舒適除了你以外,那么你首先應該確保影響自己的東西是否正常,否則你可能去搞亂一些全局的東西導致每一個人都受影響。
正是這個原則,當因為幾個寫的很爛的 Java 應用程序有人建議我去調整 Oracle 的網絡包大小時讓我感到很害怕。這些很爛的程序產生了很多不必要的數據庫調用,自然也產生了很多不必要的網絡等待。當其他一切正常除了這幾個爛程序,那么最安全的做法是將調整的范圍本地化,只需要去調整這幾個爛程序就好了。
11. 效率
即便依賴此系統進行工作的所有人都很痛苦,你依然需要首先專注于業務上最優先需要修正的程序部分。讓程序工作的盡可能的高效是一個很好的切入點。在不增加容量,不犧牲必須的業務功能的前提下,效率是能夠節省下來的任務總執行時間的倒數。
換句話說,效率就是從反面對浪費進行的度量。下面是一些經常發生在數據庫應用中浪費的例子。
一個中間層程序為插入數據庫的每條記錄創建了一條獨立的 SQL 語句。它執行了 10,000 次數據庫預編譯語句調用,導致了 10,000 次網絡 I/O 調用。其實它可以只使用一條預編譯語句,從而節省 9,999 次網絡 I/O 調用。
一個 SQL 語句訪問數據庫緩沖區緩存 7,428,322 次獲得了 698 行的結果集。使用一個額外的過濾預測,只返回了終端用戶真正想要看見的 7 行結果,只需訪問緩沖區緩存 52 次。
確實如果一個系統存在一些全局性的問題(不良索引、錯誤參數、弱弱的硬件配置)導致了一大片任務執行的低效率,你應當修正它。但不要嘗試調優系統去滿足低效的程序。有很多辦法來調優低效的程序本身。即使這個程序是商業的現成的軟件,那么和你的軟件供應商一起去優化程序本身比你去優化系統讓其盡可能的高效從長期來說會更受益。
讓程序變的更高效會讓工作在這個系統上的每一個人都受益巨大。很容易看到浪費的減少對任務響應時間的貢獻。但依然有很多人不明白為什么提升這部分程序的性能會導致一種副作用,讓看起來完全不相關的另一個程序性能變差。
其實這是系統負載在作祟。
12. 負載
負載(Load)是并發任務執行時引發的資源競爭。負載正是我們為什么不能在性能測試中捕捉到所有性能問題的原因,而這些問題以后會在生產環境發生。負載的一個測量指標是使用率,使用率反應了資源按時間分片的使用情況。當某個資源使用率上升時,那么請求該資源服務的用戶就不得不經歷更長的響應時間。任何一個在城市的高峰期開車的人都經歷過類似現象。當交通變的嚴重擁堵時,你不得不在收費站前等待更長的時間。
你的汽車在開闊的道路上能開上每小時 60 英里,但在擁堵的路上只能以每小時 30 英里的速度行駛,而軟件不會像汽車這樣真的變慢。軟件按照固定的同樣的速度執行,每個時鐘周期總是執行同樣數量的指令,但響應時間會隨著系統資源變的繁忙而嚴重退化。
負載上升系統變慢的原因有兩個:隊列延遲 和 相關性延遲。下面我會進一步講述。
13. 隊列延遲
負載和響應時間之間在數學上的相關性大家都很熟悉了。一個叫做「M/M/m」的數學模型(譯注:「M/M/m」是一個關于隊列理論的數學模型,你無需詳細搞明白也能從感性認識并理解作者的分析。)將響應時間和負載關聯起來應用于一些特定的需求場景下。「M/M/m」模型的一個假設前提是你的系統模型擁有理論上的完美擴展性。這個假設非常類似于我們在初級物理學課程中經常提到的光滑表面(無摩擦力)假設。
雖然「M/M/m」模型假設的條件有些不現實,如完美的可擴展性,但從中依然可以學到很多。「圖4」使用「M/M/m」模型展示了負載和響應時間之間的關系。
從「圖4」,你從數學的角度看到了系統在不同負載條件下給你的感受。低負載下的響應時間和無負載基本一樣。當負載上升時,你能感受到響應時間有一個輕微、平緩的退化。這種平緩的變化不會造成什么麻煩,但隨著負載繼續上升響應時間開始以一種急劇的方式退化,這可要造成大麻煩了。
響應時間在具備完美擴展性的「M/M/m」模型下由兩個部分組成:服務時間 和 隊列延遲。
就是這樣一個等式:R = S + Q
服務時間(S)就是任務的執行時間。
隊列延遲(Q)就是任務在隊列中等待機會獲得消費某個資源的時間。
所以當你在 Taco Tico(美國和墨西哥邊境的快餐連鎖)訂餐時,你的訂單響應時間(R)就包括了等待服務員來餐桌邊接收訂單的等待時間,這就是隊列延遲等待(Q),而服務時間(S)就是從訂單交到服務員時到食物送到你手上的等待時間。 同樣,任務的響應時間在有負載和無負載的系統之間是有差別的。
14. 拐點
提及性能,你想要達到兩個目標:
- 你想要獲得最快的響應時間:你不想任務的完成需要太長的時間。
- 你想要獲得最大的吞吐量:同一時間能支持更多人執行他們的任務。
不幸的是這兩個目標是相互矛盾的。優化達到第一個目標需要你最小化系統的負載,而達到第二個目標則要最大化系統負載,二者不可兼得。 在這兩者之間的某個負載值就是系統的最優負載。
處于最優負載平衡點的資源使用率的值,我稱其為「拐點」。系統中某種資源達到「拐點」后,那么吞吐量被最大化了而對響應時間只有很小的負面影響。從數學上來講,「拐點」就是響應時間除以資源利用率所得結果最小的值。 「拐點」有個很好的屬性,就是位于從原點畫一條直線正好與響應時間曲線相切的位置。 在一個仔細繪制的「M/M/m」圖中,你能很容易的利用這個性質找到「拐點」,如下「圖5」所示。
關于「M/M/m」模型「拐點」的另一個很好的屬性是你只需要知道一個參數就可以計算出它。這個參數就是系統中并行的、相同的和獨立的服務通道數。服務通道是一種資源,它們共享一個隊列,其他資源像收費站或者 SMP(Symmetric multiprocessing 對稱多處理)結構的計算機中的 CPU 都是類似的概念。
在「M/M/m」模型中,斜體小寫的 m 表示系統建模時服務通道數。對任意一個系統來說,計算「拐點」都是很困難的,好在我已經給你計算出來了。「表5」中列出了一些常見的服務通道數的「拐點」值。(此時你也許想知道在「M/M/m」隊列模型中另外兩個 M 代表什么。它們與請求進入時刻和服務時間的隨機性假設有關。 更多請參考 Kendall's Notation 或進一步參考 Optimizing Oracle Performance)
為何「拐點」如此重要?對于那些請求隨機到達的系統,如果資源負載持續超過「拐點」,那么響應時間和吞吐會因為負載的輕微變化而嚴重波動。 所以,對于請求隨機到達的系統而言,保持負載低于拐點是至關重要的。
(譯注:從上面「表5」可以看出,為什么經驗值將 4 核的虛擬化容器 CPU 負載紅色報警點在 60%,32或64 核物理機的 CPU 負載紅色報警點在 80%。)
15. 拐點的相關性
那么「拐點」的概念是不是真的如此重要呢? 畢竟,我曾經告訴過你「M/M/m」模型建立在一個理想的烏托邦理念之上,那就是系統擁有完美的可擴展性。我知道你正在想什么:你想的都是錯的。
「M/M/m」模型告訴我們,即便你的系統擁有完美的可擴展性,你依然會遭遇巨大的性能問題只要系統的平均負載超過了圖表中給出的拐點。那么現實中你的系統不可能比「M/M/m」假設的理論系統更完美。所以,你的系統的真實「拐點」會比我在「表5」中給出的更小。(我在這里對拐點使用了復數形式,因為你可以基于 CPU 來建立拐點模型,同時也可以基于你的磁盤、網絡 I/O 等等。)
再次說明:
- 你的系統中的每一項資源都有一個「拐點」。
- 你的系統「拐點」都是小于或等于「表5」中給出的理論值,你的系統擴展的完美性越差,「拐點」越小。
- 對于請求隨機到達的系統,如果資源負載持續超過「拐點」,你將遭遇性能問題。
所以,保持負載低于拐點是至關重要的。
(譯注:所以性能測試干的就是找出真實系統的負載拐點,并和理論值比較就可以看出系統的橫向擴展性是否有瓶頸點。)
16. 容量規劃
理解了「拐點」可以減少容量規劃的復雜性,可以這樣來規劃:
- 某項資源的容量就是在高峰期能輕松的運行你的任務而資源使用率不會超過「拐點」。
- 保持資源利用率低于「拐點」,那么系統表現就基本不會給你帶來大的驚訝。
- 但是,如果系統中任何一項資源超出了它們的「拐點」,你就會遭遇性能問題,無論你是否意識到。
- 如果你遭遇性能問題,不要糾結于數學模型上,要修正這些問題要么重新安排下負載分配,要么減少負載,要么增加容量。
這就是將性能管理過程和容量規劃結合起來的辦法。
17. 隨機到達
你可能已經注意到了,我在前文經常提及“隨機到達”這個說法,為什么它如此重要?現在一些系統擁有的特征你可能不會具備,如:完全確定的作業調度。另外一些系統被配置為接受任務的方式像是機器人模式,如每秒接受一個任務,十分固定,當然現在這些系統很少見了。我這里說的一秒一個任務,并不是說平均一秒一個任務,例如第一秒 2 個任務,而下一秒 0 個任務。我指的是均勻的一秒來一個任務,類似汽車工廠組裝線上機器人的工作模式。
如果任務到達系統是完全確定的,就是說你完全能預知下一個請求什么時候到達,那么讓資源的使用率超過「拐點」必然不會引發性能問題。對于一個任務到達很確定的系統,那么你的目標應該是將資源利用到 100%,而不是讓它們排隊等待。
「拐點」對于隨機到達的系統如此重要的原因是,隨機任務請求往往會聚集并引發短暫的資源使用脈沖式上升。這些脈沖式上升需要足夠的剩余容量來消化它們,所以當脈沖發生時可能就會引發隊列延遲并導致響應時間的明顯起伏。
短暫的脈沖并導致資源使用率超過「拐點」也還好,只要不要持續達到數秒時間。這個數秒到底應該是多少秒呢? 我相信(當然我沒試過去證明)這個時間最好不要超過 8 秒。(來自著名的互聯網 8 秒原則) 如果你無法滿足在特定百分比下響應時間和吞吐量對用戶的承諾,那么很顯然系統脈沖上升持續時間太長了。
18. 相關性延遲
你的系統肯定不具備理論上的完美擴展性。盡管我從沒分析過你的系統,但我敢打賭無論你的系統無論是什么樣的也不具備「M/M/m」理論模型假設的完美擴展性,而相關性延遲正是你的建模不可能完美的原因。執行任務時花在對共享資源訪問的協商和通信的時間就是相關性延遲。和響應時間、服務時間、隊列延遲一樣,相關性延遲也可以在任務的執行中被測量,例如每點擊秒數。
這里我并不想描述預測相關性延遲的數學模型,但如果你分析過你的任務執行情況,你可以了解什么時候相關性延遲會發生。在 Oracle 中,一些同步的事件正是相關性延遲的例子:
- 入隊列(enqueue)
- 緩沖忙等待(buffer busy waits)
- 閂鎖釋放(latch free)
你不能使用「M/M/m」來對相關性延遲進行建模,因為「M/M/m」模型假設了你的 m 個服務通道是完全并行的、等同的和獨立的。這個模型假設在一個先進先出(FIFO)隊列中,只要你等待的時間足夠長,在你之前的請求已出隊列并得到服務,那么最終你也會得到服務,但是相關性延遲不是這樣工作的。
例 10
假設在一個 HTML 數據表單上,有個按鈕是「更新」,點擊它會執行一條 SQL 更新語句。另外一個按鈕是「保存」,點擊它執行事務提交將剛才的更新保存下來。如果一個應用是這樣做的,我可以保證它的性能是非常糟糕的。這是因為這樣一種設計,讓下面的場景成為可能的,實際上這也是必然可能的。一個用戶先點擊了「更新」,發現到了午餐時間,然后就去吃飯了,過了兩小時下午回來再點擊「保存」。
對于想要更新同一行的其他任務來說,這是一個災難。其他任務不得不等待獲取行鎖,更糟的情況下甚至是頁鎖,直到原來鎖定的用戶想起繼續點擊「保存」。或者 DBA 來殺掉原來鎖定用戶的會話,這樣的話當然又會給原用戶造成錯覺,他以為他更新了一行實際卻沒有,這可糟透了。
在這個例子中,不管系統繁忙與否,一個任務就在那無所事事的等待鎖的釋放。它依賴了系統資源利用率之外的一些隨機性因素。這就是為什么你不能使用「M/M/m」模型來對其進行建模。這也是為什么在一個單元測試環境下的性能測試結果不足以用來決策是否應該在生產環境添加一些新的代碼。
19. 性能測試
我們談到的隊列延遲、相關性延遲引發了一個很困難的問題。你如何對一個新的應用進行足夠的測試,讓你信心滿滿的認為它不為因為性能問題而對你的生產程序造成破壞。你可以去建模,也可以去測試。但是,在你真正遭遇這些問題之前,為所有你可以預見的生產問題去建立模型和測試是極其困難的。
因此,一些人看到了這樣窘境,因此申辯說那么就干脆別測試了。千萬別被這樣的心態所困擾。下面的觀點是很確定的:
- 在程序進入生產環境之前,如果你嘗試去發現一些問題你肯定會比那些完全不去做的找到更多的問題。
- 在預發布的測試中,你不可能發現所有的問題,所以你需要一些可靠并有效的方法來解決這些在預發布測試中漏掉的問題。
在完全不測試和完整的生產環境模擬測試之間,存在一個適度測試量的平衡點。 當然對于一家飛機制造商來說,適度測試量肯定多于一家銷售棒球帽的公司。但千萬別完全跳過性能測試。至少,當你在生產環境遭遇不可避免的性能問題時,一份性能測試計劃將使你成為一名更稱職的診斷專家(更清晰的思考者)。
20. 測量
人們能感知到的就是吞吐量和響應時間。吞吐量很容易測量,相對來說測量響應時間要稍微困難些。(還記得吧,吞吐量和響應時間可不是簡單的倒數關系)用個秒表來計時終端用戶的行為并不困難,但你不會從中得到你真正想要的關于為什么響應時間如此之大的細節。
不幸的是,人們總是測量他們容易測量的,而不是他們應當測量的。 當我們需要測量的東西不容易測量時,我們就把注意力轉移到那些容易得到測量數據上了,這是個錯誤。那些并不是你真正需要的測量,但看起來似乎和你真正需要的有些相關又容易去執行的測量,我們稱之為「替代指標」。 一些「替代指標」例子包括像子程序調用計數和子程序執行耗時的采樣數據。對于「替代指標」,很遺憾在我的母語中沒有更好的語句來表達我的想法,但有一個大家都熟悉的現代表達方式:替代指標真是惡心。(Surrogate measures suck.)
不幸的是,「惡心」在這里并不表示它沒用。要是替代指標真的沒用就好了,那就沒人會使用它們了。問題就在于替代指標有時是有用的,這讓使用替代指標的人相信它們總是有用的,但實際并不是這樣。
替代指標有兩個嚴重的問題:
- 它們可能在系統不正常時告訴你系統一切正常,這在統計學上叫做第一型錯誤,假陽性。
- 它們也可能在系統正常時告訴你系統出問題了,這在統計學上叫做第二型錯誤,假陰性。
這兩類錯誤浪費了人們許多的時間。
當你去評測一個真實系統方方面面,你能否取得成功在于你能從那個系統中獲得多少有效的測量數據。我曾有幸在 Oracle 的市場部門工作過,那時許多軟件供應商圍繞著我們積極的參與,這才使得正確的測量系統成為可能。讓軟件開發者使用 Oracle 提供的工具是另外一回事了,至少我們的產品中具備這樣的能力(記錄有效的測量數據)。
21. 性能是一項功能特性
性能是軟件程序的一項功能特性,就像你在 Bug 跟蹤系統中很方便的將「Case 1234」這樣一個字符串自動鏈接到編號 1234 的 Bug 案例上。性能像所有其他軟件功能一樣,不是湊巧得到的,你需要去設計和構建它。要想獲得好的性能,你不得不去仔細的思考、研究、學習,寫出額外的代碼來測試和支持它。
盡管如此,像所有其他功能特性一樣,在項目初期你還在調研、設計和編寫代碼時你不可能知道性能到底會怎樣。對大多數應用(可能是絕大多數,這個說法可能有爭議)而言性能都是未知的,直到它們投入實際使用階段。那么留給你的問題就是:因為在上線前你不可能知道你的應用性能表現到底怎樣,因此你需要在編寫應用時考慮怎樣很容易的在生產環境修復性能問題。
正如大衛·加文(David Garvin)告訴我們的,容易測量的東西也更容易管理(來自《建立一個學習型組織》1993年發表于《哈佛商業評論》) 那么要寫一個在生產環境容易修復問題的應用程序,首先要做的就是要容易在生產環境進行測量。大多數時候,當我提到生產環境的性能測量時人們就會陷入一種焦慮狀態,他們很擔心性能測量帶來的入侵效應。他們立刻對采集哪些數據做出了妥協,只留下那些「替代指標」(更容易采集的)在數據采集表上,擁有額外數據采集代碼的軟件會變的比沒有這些代碼的更慢么?
我喜歡湯姆·凱特(Tom Kyte)以前對這個問題的回答。他估計額外的性能測量代碼給 Oracle 帶來不超過 10% 性能損失。他接著向那些氣惱的提問者作出解釋,正是因為從這些性能測量代碼獲取的數據讓 Oracle 公司進一步將產品性能改進提升了不止 10%,這超出了性能測量代碼本身引發的開銷。
我認為很多軟件供應商他們通常花費了太多時間來優化他們的性能測量代碼路徑使其更高效,而不是首先搞清楚怎么讓這些代碼有效果。 高德鈉(Donald Knuth)曾在 1974 說過的一句話印證了這個觀點:
過早優化是一切罪惡的根源。
軟件設計者將性能測量代碼整合進他們的產品中更有可能創建一個高性能的應用,更重要的是這個應用會不斷變的更快。
尾聲:關于「拐點」的公開辯論
在本文的 14 到 16 節,我描述了「拐點」的性能曲線、它們的相關性和應用。但是,在 20 年前有一場關于是否值得定義一個「拐點」概念的公開辯論。
歷史上的一個重要的觀點認為我所描述的「拐點」并不是真正有意義的。在 1988 年,斯蒂芬·薩姆森(Stephen Samson)爭論說至少在「M/M/1」的排隊系統的性能曲線中并不存在「拐點」。 他寫道:“選擇一個具備指導意義的數字并不容易,經驗法則還是最適用的,在大多數情況下都不存在拐點,無論你多么希望找到一個。”
1999 年,溫水煮青蛙的故事啟發了我。這個故事是這樣的說的,當你把一只青蛙扔進煮沸的開水中,它會立刻跳出來。但假如你先把它放在冷水中并慢慢的加熱水溫,青蛙會安靜的呆在水里直到被煮熟了。對于資源使用率,它就像是沸水,有一個清晰的「死亡區間」。在這個區間值內,對于隨機到達的請求你的系統將不堪重負。那么「死亡區間」的邊界在哪里?如果你嘗試用程序來自動管理資源使用率,你就必須知道這個值。
最近,我的朋友尼爾·岡瑟(Neil Gunther)跟我有一場私下的辯論。首先,他認為「死亡區間」這個術語使用在這里是完全錯誤的,因為在函數連續性的前提下使用「死亡區間」是錯誤的。 其次,他認為對于「M/M/1」系統的「拐點」在 0.5 是過于浪費了,你應當更多的利用好系統資源,它應高于 0.5 的資源利用率。最后,他認為你對使用率的明確定義取決于實際的平均響應時間相對你能忍受的平均響應時間實際超出了多少。因此,岡瑟認為任何有用的使用率閾值的定義都來源于詢問人們自身的偏好,而非來自于數學。(圖A)
從「圖B」中,我們可以看出這個說法的問題所在。 假設,你對平均響應時間的忍耐限度是 T
,那么對應的最大資源利用率是 ρT
。你會看到在 ρT
附近資源利用率一個微小的變化都會導致響應時間巨大的波動。
我相信如我在第 4 節所寫的,客戶感受到的是差異變化,而非平均。 或許他們會說我們能夠接受平均響應時間達到 T
,但我不相信人們能忍受因為系統平均負載發生了 1% 的變化導致平均響應時間達到 1 分鐘,換句話說就是平均響應時間翻了 10 倍。我確實了解我在 14 節列出的「拐點」列表比很多人直覺上感受到地安全值更低一些,特別是對「低階」的系統如「M/M/1」而言。 盡管如此,但我相信避免因為資源使用率的微小變化引發響應時間的過大波動,這是極其重要的。
話雖如此,我也不知道該如何確切的定義「過大」這個詞。像響應時間波動的忍耐度,不同的人有不同的底線。或許有一個起伏忍耐的因子適用于所有人。例如,Apdex Standard Application Performance Index 假設了響應時間 F
是 T
的 4 倍就會讓人們的態度從「滿意」變為「煎熬」。
正如我在 16 節中描述的,「拐點」無論你怎么去定義或稱呼它,對于容量規劃過程來說都是一個十分重要的參數。并且我相信它對日常的系統負載管理也是一個重要參數,我會繼續保持研究。
關于作者
Cary Millsap 是一家致力于軟件性能優化公司 Method R 的創始人和 CEO,是一位在 Oracle 全球社區著名的演講者、教育者、顧問和作者。曾和 Jeff Holt 合著 Optimizing Oracle Performance 一書,更多詳細信息參見作者 LinkedIn 的介紹和個人博客。
參考
- CMG (Computer Measurement Group, a network of professionals who study these problems very, very seriously); http://www.cmg.org.
- Eight-second rule; http://en.wikipedia.org/wiki/Network_performance#8-second_rule.
- Garvin, D. 1993. Building a learning organization. Harvard Business Review (July).
- General Electric Company. What is Six Sigma? The roadmap to customer impact. http://www.ge.com/sixsigma/SixSigma.pdf.
- Gunther, N. 1993. Universal Law of Computational Scalability; http://en.wikipedia.org/wiki/Neil_J._Gunther#Universal_Law_of_Computational_Scalability.
- Knuth, D. 1974. Structured programming with Go To statements. ACM Computing Surveys 6(4): 268.
- Kyte, T. 2009. A couple of links and an advert...; http://tkyte.blogspot.com/2009/02/couple-of-links-and-advert.html.
- Millsap, C. 2009. My whole system is slow. Now what? http://carymillsap.blogspot.com/2009/12/my-whole-system-is-slow-now-what.html.
- Millsap, C. 2009. On the importance of diagnosing before resolving. http://carymillsap.blogspot.com/2009/09/on-importance-of-diagnosing-before.html.
- Millsap, C. 2009. Performance optimization with Global Entry. Or not? http://carymillsap.blogspot.com/2009/11/performance-optimization-with-global.html.
- Millsap, C., Holt, J. 2003. Optimizing Oracle Performance. Sebastopol, CA: O'Reilly.
- Oak Table Network; http://www.oaktable.net.