Kafka offset管理

Kafka中的每個partition都由一系列有序的、不可變的消息組成,這些消息被連續的追加到partition中。partition中的每個消息都有一個連續的序號,用于partition唯一標識一條消息。

Offset記錄著下一條將要發送給Consumer的消息的序號。

Offset從語義上來看擁有兩種:Current Offset和Committed Offset。

Current Offset

Current Offset保存在Consumer客戶端中,它表示Consumer希望收到的下一條消息的序號。它僅僅在poll()方法中使用。例如,Consumer第一次調用poll()方法后收到了20條消息,那么Current Offset就被設置為20。這樣Consumer下一次調用poll()方法時,Kafka就知道應該從序號為21的消息開始讀取。這樣就能夠保證每次Consumer poll消息時,都能夠收到不重復的消息。

Committed Offset

Committed Offset保存在Broker上,它表示Consumer已經確認消費過的消息的序號。主要通過commitSynccommitAsync
API來操作。舉個例子,Consumer通過poll() 方法收到20條消息后,此時Current Offset就是20,經過一系列的邏輯處理后,并沒有調用consumer.commitAsync()consumer.commitSync()來提交Committed Offset,那么此時Committed Offset依舊是0。

Committed Offset主要用于Consumer Rebalance。在Consumer Rebalance的過程中,一個partition被分配給了一個Consumer,那么這個Consumer該從什么位置開始消費消息呢?答案就是Committed Offset。另外,如果一個Consumer消費了5條消息(poll并且成功commitSync)之后宕機了,重新啟動之后它仍然能夠從第6條消息開始消費,因為Committed Offset已經被Kafka記錄為5。

總結一下,Current Offset是針對Consumer的poll過程的,它可以保證每次poll都返回不重復的消息;而Committed Offset是用于Consumer Rebalance過程的,它能夠保證新的Consumer能夠從正確的位置開始消費一個partition,從而避免重復消費。

在Kafka 0.9前,Committed Offset信息保存在zookeeper的[consumers/{group}/offsets/{topic}/{partition}]目錄中(zookeeper其實并不適合進行大批量的讀寫操作,尤其是寫操作)。而在0.9之后,所有的offset信息都保存在了Broker上的一個名為__consumer_offsets的topic中。

Kafka集群中offset的管理都是由Group Coordinator中的Offset Manager完成的。

Group Coordinator

Group Coordinator是運行在Kafka集群中每一個Broker內的一個進程。它主要負責Consumer Group的管理,Offset位移管理以及Consumer Rebalance

對于每一個Consumer Group,Group Coordinator都會存儲以下信息:

  • 訂閱的topics列表
  • Consumer Group配置信息,包括session timeout等
  • 組中每個Consumer的元數據。包括主機名,consumer id
  • 每個Group正在消費的topic partition的當前offsets
  • Partition的ownership元數據,包括consumer消費的partitions映射關系

Consumer Group如何確定自己的coordinator是誰呢? 簡單來說分為兩步:

  1. 確定Consumer Group offset信息將要寫入__consumers_offsets topic的哪個分區。具體計算公式:
__consumers_offsets partition# = Math.abs(groupId.hashCode() % offsets.topic.num.partitions)  //offsets.topic.num.partitions默認值為50。
  1. 該分區leader所在的broker就是被選定的coordinator

Offset存儲模型

由于一個partition只能固定的交給一個消費者組中的一個消費者消費,因此Kafka保存offset時并不直接為每個消費者保存,而是以groupid-topic-partition -> offset的方式保存。如圖所示:


group-offset.png

Kafka在保存Offset的時候,實際上是將Consumer Group和partition對應的offset以消息的方式保存在__consumers_offsets這個topic中

__consumers_offsets默認擁有50個partition,可以通過

Math.abs(groupId.hashCode() % offsets.topic.num.partitions) 

的方式來查詢某個Consumer Group的offset信息保存在__consumers_offsets的哪個partition中。下圖展示了__consumers_offsets中保存的offset消息的格式:


__consumers_offsets.png
__consumers_offsets_data.png

如圖所示,一條offset消息的格式為groupid-topic-partition -> offset。因此consumer poll消息時,已知groupid和topic,又通過Coordinator分配partition的方式獲得了對應的partition,自然能夠通過Coordinator查找__consumers_offsets的方式獲得最新的offset了。

Offset查詢

前面我們已經描述過offset的存儲模型,它是按照groupid-topic-partition -> offset的方式存儲的。然而Kafka只提供了根據offset讀取消息的模型,并不支持根據key讀取消息的方式。那么Kafka是如何支持Offset的查詢呢?

答案就是Offsets Cache!!

Offsets Cache.JPG

如圖所示,Consumer提交offset時,Kafka Offset Manager會首先追加一條條新的commit消息到__consumers_offsets topic中,然后更新對應的緩存。讀取offset時從緩存中讀取,而不是直接讀取__consumers_offsets這個topic。

Log Compaction

我們已經知道,Kafka使用groupid-topic-partition -> offset*的消息格式,將Offset信息存儲在__consumers_offsets topic中。請看下面一個例子:

__consumers_offsets.JPG

如圖,對于audit-consumer這個Consumer Group來說,上面的存儲了兩條具有相同key的記錄:PageViewEvent-0 -> 240PageViewEvent-0 -> 323。事實上,這就是一種無用的冗余。因為對于一個partition來說,我們實際上只需要它當前最新的Offsets。因此這條舊的PageViewEvent-0 -> 240記錄事實上是無用的。

為了消除這樣的過期數據,Kafka為__consumers_offsets topic設置了Log Compaction功能。Log Compaction意味著對于有相同key的的不同value值,只保留最后一個版本。如果應用只關心key對應的最新value值,可以開啟Kafka的Log Compaction功能,Kafka會定期將相同key的消息進行合并,只保留最新的value值。

這張圖片生動的闡述了Log Compaction的過程:


Log Compaction.JPG

下圖闡釋了__consumers_offsets topic中的數據在Log Compaction下的變化:


Log Compaction for __consumers_offsets.JPG

在新建topic時添加log.cleanup.policy=compact參數就可以為topic開啟Log Compaction功能。

auto.offset.reset參數

auto.offset.reset表示如果Kafka中沒有存儲對應的offset信息的話(有可能offset信息被刪除),消費者從何處開始消費消息。它擁有三個可選值:

  • earliest:從最早的offset開始消費
  • latest:從最后的offset開始消費
  • none:直接拋出exception給consumer

看一下下面兩個場景:

  1. Consumer消費了5條消息后宕機了,重啟之后它讀取到對應的partition的Committed Offset為5,因此會直接從第6條消息開始讀取。此時完全依賴于Committed Offset機制,和auto.offset.reset配置完全無關。

  2. 新建了一個新的Group,并添加了一個Consumer,它訂閱了一個已經存在的Topic。此時Kafka中還沒有這個Consumer相應的Offset信息,因此此時Kafka就會根據auto.offset.reset配置來決定這個Consumer從何處開始消費消息。

參考文章

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,578評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,701評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,691評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,974評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,694評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,026評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,015評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,193評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,719評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,442評論 3 360
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,668評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,151評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,846評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,255評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,592評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,394評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,635評論 2 380

推薦閱讀更多精彩內容