內存中的數據寫到磁盤,會經過vfs~fs~邏輯卷/軟raid~pagecache~塊操作調度~磁盤
等一系列過程。
磁盤IO
阻塞會涉及到操作系統方面的很多細節。了解這些細節,對編程開發以及運維工作都是有利的。
本文中將結合Redis
,講述磁盤IO
阻塞。
一、IO
阻塞場景
Redis
容易出現磁盤IO
阻塞場景:
a)追加aof
日志
b)rewrite aof
c)頻繁dump rdb
分析這幾個場景的代碼,發現在Redis
中調用的posix
接口中,Write
、fSync
、Close
、Rename
、Unlink
都有可能造成阻塞。
下面我們結合代碼來分析它們是如何造成阻塞的。
二、場景分析
1.追加aof
日志
#define AOF_WRITE_LOG_ERROR_RATE 30 /* Seconds between errors logging. */
void flushAppendOnlyFile(int force) {
// 每秒 fsync
if (server.aof_fsync == AOF_FSYNC_EVERYSEC && !force) {
// 有 fsync 正在后臺進行
if (sync_in_progress) {
if (server.aof_flush_postponed_start == 0) {
/*
* 前面沒有推遲過 write 操作,將推遲寫操作的時間記錄下來
* 不執行 write 或者 fsync
*/
server.aof_flush_postponed_start = server.unixtime;
return;
} else if (server.unixtime - server.aof_flush_postponed_start < 2) {
/*
* 如果之前已經因為 fsync 而推遲了 write 操作
* 但是推遲的時間不超過 2 秒
* 不執行 write 或者 fsync
*/
return;
}
/ *
* 如果后臺還有 fsync 在執行,并且 write 已經推遲 >= 2 秒
* 那么執行寫操作
*/
redisLog(REDIS_NOTICE,"Asynchronous AOF fsync is taking too long (disk is busy?). Writing the AOF buffer without waiting for fsync to complete, this may slow down Redis.");
}
}
/*
* 執行到這里,程序會對 AOF 文件進行寫入。
*/
nwritten = write(server.aof_fd,server.aof_buf,sdslen(server.aof_buf));
}
}
從上面的流程可以看出,當有bio
線程運行fsync
,就會推遲write(aof_buf)
。
推遲超過2s
之后,不管是否有bio
線程運行fsync
,都會直接調用wirte
。
這個時候,如果fsync
正在執行的的話,就會導致write
阻塞,Redis
服務也就阻塞了。
這里的IO
阻塞跟IO
繁忙無關,只是因為fsync
和write
都在操作同一個fd
。
When the fsync policy is set to 'everysec' we may delay the flush if there is still an fsync() going on in the background thread, since for instance on Linux write(2) will be blocked by the background fsync anyway.
題外話:那么為什么要將fsync放入后臺線程中執行呢?
比如,在SSD上連續寫1G,如果每次寫入4k,就使用fsync刷page cache的話,需要20+min才能執行完成。
而如果所有1G先write再調用fsync()刷盤,2s就寫成功了。
時間相差600倍。可見頻繁fsync會導致redis性能大大降低。
2.重寫aof
日志:
其中有三處可能會出現阻塞:
1)將累積的aof_rewrite_buf
,write
到tmpfile
文件中
2)rename tmpfile
為aof
- 將1)中write的緩存,
fsync
到磁盤中
4)刪除舊aof
文件
2.1 對于3)fysnc
是因為fsync
本身是一個耗時的操作,所以放入bio
線程中執行。
2.2 對于2)、4)
作者將close
放入bio
線程中執行。這里比較難理解,需要我們理解close
,unlink
,rename
和文件刪除的關系。
先來看下linux man
中說明(只討論文件):
Close
:關閉文件描述符
a)調用過unlink(使得鏈接數為0),且close的這個fd是對該file最后一個引用,會觸發文件的刪除。
if the file descriptor was the last reference to a file which has been removed using unlink(2), the file is deleted.
b)當調用close的時候,緩存pagecache并不會刷入磁盤。
Typically, filesystems do not flush buffers when a file is closed. If you need to be sure that the data is physically stored on the underlying disk, use fsync(2).
所以說如果close
發生了阻塞,應該就是close
觸發了文件刪除。
Unlink
:刪除目錄項(i節點),并將pathname
所引用文件鏈接數(硬鏈接)計數減一。
int unlink(const char *pathname)
只有當鏈接數到達0,文件內容才可能被刪除。但是,當有進程打開這個文件,文件內容也不能被刪除。
所以說:
a)close
本身并不會刪除文件,除非之前調用過unlink
。使得引用數和鏈接數都為0。
b)unlink
本身也不會刪除文件,除非此時引用數和鏈接為0。
只有引用數和鏈接數都為0,close
、unlink
才會刪除文件,導致阻塞。
Rename
:
int rename(const char *oldname, const char *newname)
Rename這個系統調用會unlink newname對應的文件,然后將舊文件的名字改成新名字。
涉及到刪除文件,遵守上文所述刪除文件規則,也就是說rename也不一定會真正刪除文件。
If the link named by the new argument exists, it shall be removed and old renamed to new.
所以2)中rename tmpfile
時,由于fd
仍然被引用,并不會真正的刪除文件。到4)時,調用close
,才會真正刪除文件。由于We don't want close(2) or rename(2) calls to block the server on old file deletion.
此時將close
放入bio
線程中執行,避免服務阻塞。
2.3 對于1)
其實這種情況在開始aof
的redis
實例中并不少見。
以下為一個故障現象整理:
子進程做aof,對redis資源消耗。此時redis服務正常。
a)aof rewrite耗時20:04:41-20:26:41共9分鐘
b)aof_rewrite_buf使用9280M
c)用戶大部分時間平均每秒寫入10M/S,高峰寫入50M/S
子進程生成新aof,主進程將aof_rewrite_buf寫入aof文件中。
此時redis阻塞,不相應外部服務
耗時:20:26:42-20:29:51共3分11秒。
正常情況下,這應該是秒級別就完成的操作。
之所以阻塞,是由頁回寫機制造成的,我們有兩個方向可以嘗試解決這個問題:
2.3.1 在程序層面,將集中write
改成多次頻繁寫。
redis4.0
利用管道優化aofwrite
,具體可參見 https://yq.aliyun.com/articles/177819
2.3.2 系統層面調優,優化內核參數,將寫活動高峰分布成頻繁的多次寫。
首先我們需要了解,臟頁是什么時候回寫的:
a)空閑內存低于閾值:/proc/sys/vm/dirty_background_ratio
vm.dirty_background_ratio is the percentage of system memory that can be filled with dirty pages — memory pages that still need to be written to disk — before the pdflush/flush/kdmflush background processes kick in to write it to disk.
b)臟頁在內存中駐留的時間超過一個特定的閾值:/proc/sys/vm/dirty_expire_centisecs
When the pdflush/flush/kdmflush processes kick in they will check to see how old a dirty page is, and if it’s older than this value it’ll be written asynchronously to disk.
c)進程調用sync/fsync
d)進程調用write寫文件刷新緩存。
WRITE寫的時候,緩存超過dirty_ratio,則會阻塞寫操作,回刷臟頁,直到緩存低于dirty_ratio;如果緩存高于background_writeout,則會在寫操作時,喚醒pdflush進程刷臟頁,不阻塞寫操作。
注:
在Linux-3.2新內核中,page cache和buffer cache的刷新機制發生了改變。放棄了原有的pdflush機制,改成了bdi_writeback機制。這種變化主要解決原有pdflush機制存在的一個問題:在多磁盤的系統中,pdflush管理了所有磁盤的page/buffer cache,從而導致一定程度的IO性能瓶頸。bdi_writeback機制為每個磁盤都創建一個線程,專門負責這個磁盤的pagecache或者buffer cache的數據刷新工作,從而實現了每個磁盤的數據刷新程序在線程級的分離,這種處理可以提高IO性能。
https://blog.csdn.net/younger_china/article/details/55187057
從d)中可以看出,當磁盤寫入繁忙,導致臟頁占用內存比率增大。此時調用wirte
,fsync
都會導致調用進程時間掛起。這也是前面aof write
耗費3分11秒的原因。
針對上述臟頁回收時機,可以做如下參數調優:
減少內存使用
vm.dirty_background_ratio = 5
vm.dirty_ratio = 10
最大化的使用內存
vm.dirty_background_ratio = 50
vm.dirty_ratio = 80
優化寫入性能, 可以使用內存, 但是等到空閑的時候希望內存被回收, 比較經常用在應對突然有峰值的這種情況
vm.dirty_background_ratio = 5
vm.dirty_ratio = 80