Kafka的核心知識總結

一、概述

  • Kafka是一個具有高吞吐量,高拓展性,高性能和高可靠的基于發布訂閱模式的消息隊列,是由領英基于Java和Scala語言開發。通常適合于大數據量的消息傳遞場景,如日志分類,流式數據處理等。
  • Kafka的體系結構的核心組件包括:消息生產者,消息消費者,基于消息主題進行消息分類,使用Broker集群進行數據存儲。同時使用Zookeeper進行集群管理,包括主題的分區信息,分區存放的broker信息,每個分區由哪些消費者消費以及消費到哪里的信息。
  • Kafka相對于其他MQ,最大的特點是高拓展性,包括消息通過主題拓展,主題通過分區拓展,消息消費通過消費者組拓展,數據存儲通過brokers機器集群拓展。

二、主題與分區

主題Topic

  • Kafka作為一個消息隊列,故需要對消息進行分類,Kafka是通過Topic主題來對消息進行分類的,即Kafka可以根據需要定義多個主題,每個消息屬于一個主題。如下為kafka提供的用于創建,刪除和查看kafka當前存在的主題的命令行工具:

    • 創建主題:指定分區數partitions,分區副本數replication-factor,zookeeper。

      ./kafka-topics.sh --create --topic mytopic --partitions 2 --zookeeper localhost:2181 --replication-factor 2
      
    • 查看某個主題的信息:PartitionCount分區數量,ReplicationFactor分區副本數量;Leader分區leader(負責該分區的讀寫),Isr同步副本。由于在本機存在3個brokers,對應的server.properties的broker.id分別為:0, 1, 2,所以通過--describe選項查看的mytopic的詳細信息可知:
      mytopic的分區0是分區leader為broker2,同步副本為broker1和broker2;分區1的分區leader為broker0,同步副本為broker0和broker2。

      xyzdeMacBook-Pro:bin xyz ./kafka-topics.sh --describe --topic mytopic --zookeeper localhost:2181
      Topic:mytopic   PartitionCount:2    ReplicationFactor:2 Configs:
          Topic: mytopic  Partition: 0    Leader: 2   Replicas: 2,1   Isr: 2,1
          Topic: mytopic  Partition: 1    Leader: 0   Replicas: 0,2   Isr: 0,2
      
    • 查看所有主題信息:

      ./kafka-topics.sh --list --zookeeper localhost:2181
      
    • 刪除主題:

      xyzdeMacBook-Pro:bin xieyizun$ ./kafka-topics.sh --delete --topic mytopic --zookeeper localhost:2181
      Topic mytopic is marked for deletion.
      Note: This will have no impact if delete.topic.enable is not set to true.
      
  • 主題就相當于一個個消息管道,同一個主題的消息都在同一個管道流動,不同管道的消息互不影響。

  • 作為一個高吞吐量和大數據量的消息隊列,如果一個主題的消息非常多,由于所有消息都需要排隊處理,故很容易導致性能問題。所以在主題的基礎上可以對主題進行進一步地分類,這個就是分區。

分區Partition

  • 分區是對主題Topic的拓展,每個主題可以包含多個分區,每個分區包含整個主題的全部信息的其中一部分,全部信息由所有分區的消息組成。所以主題就相當于一根網線,而分區是網線里面五顏六色的數據傳輸線。
  • 有序性:由于主題的消息分散到了各個分區中,故如果存在多個分區,則該主題的消息整體上是無序的,而每個分區相當于以隊列,內部的消息是局部有序的。所以如果需要保證主題整體的消息有序,則只能使用一個分區。如圖所示:mytopic包含3個partition分區,每個分區內部是一個消息隊列。


    在這里插入圖片描述

分區副本Replication:高可靠性

  • 為了實現可靠性,即避免分區的消息丟失,每個分區可以包含多個分區副本,通過數據冗余存儲來實現數據的高可靠性。
  • 每個分區的多個副本中,只有一個作為分區Leader,由該分區Leader來負責該分區的所有消息讀寫操作,其他分區副本作為Followers從該分區Leader同步數據。
分區副本的存儲
  • 為了避免某個broker機器節點故障導致數據丟失,每個分區的多個副本需要位于不同的broker機器節點存放,這樣當某個broker機器節點出現故障不可用時,可以從將其他broker機器節點選舉該分區的另一個副本作為分區Leader繼續進行該分區的讀寫。
  • 所以brokers機器集群節點的數量需要大于或者等于最大的分區副本數量,否則會導致主題創建失敗。
同步副本Isr
  • 分區Leader的選舉是由zookeeper負責的,因為zookeeper存儲了每個分區的分區副本和分區Leader信息。如果當前分區Leader所在的broker機器節點掛了,則zookeeper會從其他分區副本選舉產生一個新的分區Leader。

  • zookeeper不是隨便選舉一個分區副本作為新的分區Leader的,而是從該分區的同步副本Isr集合中選舉。所謂同步副本就是該副本的數據是與分區Leader保持同步。“幾乎”一致的,故在分區leader掛了時,可以減少數據的丟失。

  • 一個分區副本成為同步副本的條件如下:如果當前不存在同步副本,分區leader可以拋異常拒絕數據寫入。

    replica.lag.time.max.ms,默認10000,副本未同步數據的時間
    replica.lag.max.messages,4000,副本滯后的最大消息條數
    

三、生產者

消息路由

  • 前面介紹了kafka通過主題和分區來對消息進行分類存儲,而消息生產者負責生產消息,指定每個消息屬于哪個主題的哪個分區。即kafka的消息路由是由生產者負責的,生產者在生成消息時需要指定消息的主題和分區。如圖:producer將生成mytopic主題的三個消息分別傳給分區0,1,2的分區leader對應的broker100,broker101,broker102。


    在這里插入圖片描述
  • 分區的指定的可選:
    1. 如果生產者不顯示指定消息的分區,則kafka的Producer API默認是基于round-robin輪詢來發送消息給該主題的多個分區的。
    2. 生產者可以指定一個key,然后kafka會基于該key的hash值來將相同key的消息路由到同一個分區,從而實現相同key的消息的有序,如在股票行情中,使用股票代號作為
      key,從而實現同一股票的分時價格數據有序。
    3. 自定義partition:可以實現Partitioner接口并重寫partition方法來自定義分區路由。

消息ack實現可靠性

  • 生產者負責生成并發送消息給各個主體的各個分區,由于網絡的不穩定性和分區leader所在的broker機器可能出現故障,故需要一種機制來保證消息的可靠性傳輸,這種機制就是ack機制,即生產者發送一個消息之后,只有在收到kafka服務器返回的ack確認之后才認為該消息成功發送,否則進行消息重發。其中kafka的消息重發是冪等的。
  • ack實現消息可靠性和整體的吞吐量和性能需要取一個折中,故kafka的ack機制相關配置參數如下:主要包括acks,retries,producer.type。
    1. acks參數:消息確認

      acks=0:發送后則生產者立即返回,不管消息上是否寫入成功,這種吞吐量和性能最好,但是可靠性最差;
      acks=1:默認,發送后,等待分區leader寫入成功返回ack則生產者返回;
      acks=-1: 發送后,不僅需要分區leader的ack,還需要等待所有副本寫入后的ack,可靠性最高,吞吐量和性能最差。
      
    2. retries:可重試錯誤的重試次數,如返回LEADER_NOT_AVALIAVLE錯誤時,則需要重試;

    3. producer.type:發送類型,sync同步發送(默認)和async異步發送(batch發送)

消費生成與消費測試

  • kafka提供了命令行工具來生產消息,方便進行主題的測試:執行如下命令后,則可以在命令行輸入各種消息,然后可以在另一個終端消費查看消息是否生成成功。

    ./kafka-console-producer.sh --topic mytopic --broker-list localhost:19092
    
  • 消息消費命令:

    ./kafka-console-consumer.sh --topic quote-depth --zookeeper localhost:2181
    

四、Broker集群

  • broker機器集群就是kafka的服務端實現,主要負責存儲主題各分區的消息,負責接收生產者的數據寫入請求,處理消費者的數據讀取請求。

分區數據存儲

  • 每個broker可以存放多個主題的多個分區的消息,而這些統計信息,即某個分區位于哪個broker是由zookeeper維護的。
  • 同一個分區的多個分區副本需要位于不同的broker中,從而避免某個broker機器故障導致該分區的數據丟失。
  • 具體存儲關系如圖:紅色的為分區leader,綠色的為分區副本,同一個分區的不同分區副本位于不同的broker中。


    在這里插入圖片描述

請求處理模型

  • kafka基于C/S架構,broker作為kafka的服務端實現,生產者和消費者作為kafka的客戶端實現,故broker需要接收生產者和消費者的連接請求并處理,如下為該請求處理模型示意圖:


    在這里插入圖片描述

五、消費者

  • 消費者負責消費某個主題的某個分區的數據,為了實現可拓展性,實現同一個分區的數據被多種不同的業務重復利用,kafka定義了消費者組的概念,即每個消費者屬于一個消費者組。

消息重復消費

同一個消費者組:單播
  • 一個主題的其中一個分區只能被同一個消費者組中的一個消費者消費,消費者內的一個消費者可以消費多個主題的多個分區,從而避免消費者組內對同一個分區的消息的重復消費。
  • 如股票的股價提醒當中,對于同一只股票只能由同一個消費者組組的一個消費者線程處理,否則會導致重復提醒。
不同消費者組:廣播
  • 不同的消費者組代表不同的業務,每個消費者組都可以有一個消費者對同一個主題的同一個分區消費一次,所以實現了消息的重復消費利用,實現了消費的高度可拓展性。
  • 具體消費者組與消費者的消費情況如圖所示:broker1的分區0分別被消費者組A的消費者C1和消費者組B的消費者C3消費。


    在這里插入圖片描述

消息消費跟蹤

  • 每個消費者在消費某個主題的一個分區的消息時,基于offset機制來保證對該分區所有消息的完整消費和通過修改offset來實現對該分區消息的回溯。

  • 消費者每消費該分區內的一個消息,則遞增消費offset并上傳給zookeeper來維護,使用zookeeper維護的好處時,假如該消費者掛了,則zookeeper可以從該消費者組選擇另外一個消費者從offset往后繼續消費,避免數據的重復消費或者漏掉消費。其中上傳提交offset給zookeeper可以是自動提交或者由應用程序控制手動提交。具體通過參數來定義:

    enable.auto.commit:默認為true,即自動提交,是Kafka Consumer會在后臺周期性的去commit。
    
    auto.commit.interval.ms:自動提交間隔。范圍:[0,Integer.MAX],默認值是 5000 (5 s)
    
自動提交offset
  • 消費者消費消息默認是自動提交offset給zookeeper的。使用自動提交的好處是編程簡單,應用代碼不需要處理offset的提交。缺點是可能導致消息的丟失,即當消費者從broker讀取到了消息,然后自動提交offset給zookeeper,如果消費者在處理該消息之前掛了,則會導致消息沒有處理而丟失了,因為此時已經上傳了offset給zookeeper,則下一個消費者不會消費該消息了。
  • 故自動提交模型是at most once,即最多消費一次,可能存在消息丟失。
手動提交offset
  • 如果關掉自動提交,即設置enable.auto.commit為false,則需要應用程序消費消息后手動提交。這種方式的好處是消費者線程可以在成功處理該消息后才提交到zookeeper,如果處理中途掛了,則不會上傳給zookeeper,下個消費者線程可以繼續處理該消息。所以缺點是可能導致消費的重復消費,如消費者線程在成功處理該消息后,如寫入數據庫成功了,但是在提交之前消費者線程掛了沒有提交該offset給zookeeper,則會造成重復消費。
  • 故手動提交模型是at least once,即至少消費一次,可能存在重復消費。
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,702評論 6 534
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,615評論 3 419
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,606評論 0 376
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,044評論 1 314
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,826評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,227評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,307評論 3 442
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,447評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,992評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,807評論 3 355
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,001評論 1 370
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,550評論 5 361
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,243評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,667評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,930評論 1 287
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,709評論 3 393
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,996評論 2 374

推薦閱讀更多精彩內容

  • 大致可以通過上述情況進行排除 1.kafka服務器問題 查看日志是否有報錯,網絡訪問問題等。 2. kafka p...
    生活的探路者閱讀 7,612評論 0 10
  • Kafka提供的主要功能 生產者 ——>消息隊列 <——消費者 所謂消息對象,本質上就是由生產者向消息隊列不斷發送...
    leofight閱讀 1,656評論 0 5
  • 6.消息投遞 我們已經了解了一些生產者和消費者是如何工作的,現在讓我們討論在生產者和消費者之間,kafka提供的語...
    阿飛的博客閱讀 1,328評論 1 5
  • 一、入門1、簡介Kafka is a distributed,partitioned,replicated com...
    HxLiang閱讀 3,367評論 0 9
  • 海風吹,吹過無垠的海面 吹過崎嶇蜿蜒的嶼岸 吹開了一簇簇紅的、白的櫻花 吹來了戀家的鳥鳴 吹醒了海岸沉睡的白帆 嶼...
    青荷園閱讀 174評論 0 9