Compaction

  • RocksDb的compaction,包含多種compaction Style, Compaction
  • Rocksdb默認采用Level-compaction
  • Manual-Compaction: 為什么需要manual,如何manual,以及影響manual的options設置。
  • compaction的相關option: rocksdb/options.h

Compaction觸發(fā)時機

  • Options.disable_auto_compaction=true: 關閉rocksdb 的內(nèi)置Compaction算法。

  • options.periodic_compaction_seconds=數(shù)值: 如果提供了CompactionFilter,通過設置非0數(shù)值,rocksdb會定期compaction對所有數(shù)據(jù)執(zhí)行compactionFilter。執(zhí)行完compactionFilter中被要求filter過濾掉的數(shù)據(jù),會被標記為無效(delete marker),用戶會查詢不到,但是真正從磁盤上刪除只有當發(fā)生compaction時才會被刪除。如果不設置,默認30天,設置為0表示取消該功能。

  • 系統(tǒng)自動觸發(fā)compaction: 比如level中文件數(shù)據(jù)量達到閾值。

  • 手動觸發(fā): 客戶端主動調(diào)用DB::CompactRangeDB::CompactFiles方法會進行compaction. 阻塞時調(diào)用,直到compaction完成。nebula中ManualCompaction案例

  • Options::max_background_compactions: L1-LN, 在非0Level上多個compactions可以被并行執(zhí)行, max_background_compactions控制了最大并行數(shù)量。

  • max_subcompactions大于1時,L0->L1, 我們會嘗試把L0中數(shù)據(jù)文件分割開,用多線程合并到L1中。

RocksDb Level-compaction文件組織方式介紹

文件結構
  • rocksdb把磁盤上文件組織為多層,L0中數(shù)據(jù)是從memtable 中flush過來的
  • L0中的每個文件是有序的,但是非L0是整體有序的,即不僅每個文件有序而且文件之間也是有序的。
  • 非L0上的數(shù)據(jù)被分片保存在多個不同的sstable文件中
  • L0中key是有重復的,但是非L0中數(shù)據(jù)的key是沒有重復的。所以在非L0中一個key只會包含在一個文件中。Lo中key可能包含在多個文件中。
  • 確定一個key的在該中的位置:先level中所有文件進行二分查找,找到那個file包含這個key,然后在這個file中再次二分查找,找到具體的位置。
  • 不同level中會包含相同的key, 高Level中的數(shù)據(jù)是舊的。


    非Lo是整體有序的

Compaction目的

  • 為了節(jié)省空間(刪除無效的數(shù)據(jù),合并文件數(shù)據(jù),減少文件數(shù)量),和提高讀性能(文件少了,檢查key的效率就快了),會將磁盤上的sst文件定期進行合并compaction。
  • 每個非L0都有指定的文件總大小target_size,compaction就是要是每個非L0的大小維持在target_size之下,不同level的文件數(shù)量通常呈指數(shù)級增長。
image.png

Compaction

  • 當L0中文件到達level0_file_num_compaction_trigger時,L0中文件將會被Merged到L1中,因為L0中文件是有重疊的key,所以會將L0中所有文件都merge到L1中。


    image.png
  • L1中文件數(shù)量或者文件總size超過閾值后,會從L1中至少選擇一個文件Merge到L2中key有交疊的文件中


    image.png

    image.png
  • 其它level同理,


    image.png
  • 如果需要,在非L0上多個compactions可以被并行執(zhí)行, max_background_compactions控制了最大并行數(shù)量。

    image.png

  • 但是L0到L1的合并不可以并行操作,可能成為瓶頸,對于這種情況可以設置max_subcompactions大于1,這樣,我們會嘗試把數(shù)據(jù)文件分割開,用多線程去執(zhí)行合并操作。

    L0到L1的多線程加速合并方式

定期compaction

  • 如果compaction filter存在的話,Rocksdb可以確保固定時間后數(shù)據(jù)都會經(jīng)過compaction filter,這就是通過options.periodic_compaction_seconds參數(shù)控制,設置為0,則屏蔽該特性。如果使用默認值,rocksdb會將該值設置為30天。當進行compaction時,超過30天的數(shù)據(jù)都有資格去進行compaction(有些文件可能在compaction中會一直沒有被選中),而且被compaction到原來的level中。
  • 如果沒有compaction filter的compaction,其只會在合并過程中刪除老的key,和保證level的文件大小,但是compaction filter的實現(xiàn)更多時為了根據(jù)業(yè)務邏輯實現(xiàn)對已有數(shù)據(jù)的刪除/更新等操作。

參數(shù)設置

關于RocksDB層級關系中有幾個相關的參數(shù)需要介紹:

參數(shù) 說明 默認值
write_buffer_size 限定Memtable的大小 64MB
level0_file_num_compaction_trigger 限定Level 0層的文件數(shù)量 4
target_file_size_base 每一層單個目標文件的大小 64MB
target_file_size_multiplier 每一層單個目標文件的乘法因子 1
max_bytes_for_level_base 每一層所有文件的大小 256MB
max_bytes_for_level_multiplier 每一層所有文件的乘法因子 10
level_compaction_dynamic_level_bytes 是否將Compact的策略改為層級從下往上應用 False
num_levels LSM的層級數(shù)量 7
  • 參數(shù)target_file_size_base和target_file_size_multiplier用來限定Compact之后的每一層的單個文件大小。target_file_size_base是Level-1中每個文件的大小,Level N層可以用target_file_size_base * target_file_size_multiplier ^ (L -1) 計算。target_file_size_base 默認為64MB,target_file_size_multiplier默認為1。

  • 參數(shù)max_bytes_for_level_base和max_bytes_for_level_multiplier用來限定每一層所有文件的限定大小。 max_bytes_for_level_base是Level-1層的所有文件的限定大小。Level N層的所有文件的限定大小可以用 (max_bytes_for_level_base) * (max_bytes_for_level_multiplier ^ (L-1))計算。max_bytes_for_level_base的默認為256MB,max_bytes_for_level_multiplier默認為10。

  • 參數(shù)level_compaction_dynamic_level_bytes用來指示Compact的策略改為層級從下往上應用。Target_Size(Ln-1) = Target_Size(Ln) / max_bytes_for_level_multiplier來限定大小:假如 max_bytes_for_level_base是 1GB, num_levels設為6。最底層的實際容量是276GB, 所以L1-L6層的大小分別是 0, 0, 0.276GB, 2.76GB, 27.6GB and 276GB。

更多參考 : RocksDB 的 Compact官網(wǎng)

  • 如果多個level都可以compaction,那么優(yōu)先選擇哪個level?優(yōu)先選擇level中的哪個file?
    RocksDB會對每一層設置一個score,score用來表示進行Compact的優(yōu)先級,score越大,越需要進行Compact。
  • compaction的參數(shù):compaciton 發(fā)生的閾值?level的大小閾值等

如何Compact

Compact操作主要包括兩種:將內(nèi)存中的Immutable Memtable通過Flush轉為磁盤上的SST文件,還有一種就是將磁盤上的SST文件,根據(jù)相關規(guī)則屬性由上層向下層的轉存。

Immutable Memtable的Flush

Flush的入口在db/db_impl_compaction_flush.ccBackgroundFlush()

當Memtable寫滿之后被轉為Immutable Memtable,RocksDB會將其Flush至Level-0層:

  • 選擇所有尚未被Flush的Immutable Memtable保存至mems_

  • 選擇第一個Immutable Memtable即mems_[0]的version信息代表這次Flush操作的元信息

  • 調(diào)用WriteLevel0Table(),進行Level-0文件的寫入

  • 將Memtable中的table_range_del_table_通過BuildTable構造新的SST文件,之后通過Add()插入數(shù)據(jù)

    • 這里的Table用的是Column Family的option默認設定的的BlockBasedTable,代碼在table/block_based_table_builder.cc,通過Add()依次插入SST文件中的Index, Filter, Data各個Block,這部分涉及SST的文件布局,稍后的博文會著重介紹。
  • 將變化的SST文件元信息寫入manifest文件

SST文件的Compact

Compact的入口在db/db_impl_compaction_flush.ccBackgroundCompaction(),我們這里依然以Leveled Compaction為例,Compaction的執(zhí)行函數(shù)在CompactionJob::Run():

  • RocksDB會將所有的Level計算出score,經(jīng)過冒泡排序,首先尋找score最高的Level,如果Level的score大于1,則選擇這個Level進行Compaction
  • 選擇Level-N中尚未被Compaction的文件PickCompaction()
  • 對于Level-0層文件,RocksDB總是選擇所有的文件進行Compact執(zhí)行操作,因為Level-0層的文件之間,可能會有key范圍的重疊
  • 對于Level-N層,通過GetOverlappingInputs()選取Level-N+1中與Level-N中重疊的兩部分SST文件
  • RocksDB的CompactionIterator::SeekToFirst()將這兩部分文件里所有被刪除的且不存在于更高層的Level的key重復的keyCompaction Filter中過濾的key標記為為無效
  • 將所有有效的key寫入新的SST文件
  • 合并結束,利用VersionEdit更新VersionSet,更新統(tǒng)計信息
    u
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內(nèi)容