Kafka 新版消費者 API(二):提交偏移量

1. 自動提交

最簡單的提交方式是讓消費者自動提交偏移量。如果 enable.auto.commit 被設(shè)為 true,那么每過 5s,消費者會自動把從 poll() 方法接收到的最大偏移量提交上去。提交時間間隔由 auto.commit.interval.ms 控制,默認(rèn)值是5s。消費者每次獲取新數(shù)據(jù)時都會先把上一次poll()方法返回的最大偏移量提交上去。

可能造成的問題:數(shù)據(jù)重復(fù)讀

假設(shè)我們?nèi)匀皇褂媚J(rèn)的 5s 提交時間間隔,在最近一次提交之后的 3s 發(fā)生了再均衡,再均衡之后,消費者從最后一次提交的偏移量位置開始讀取消息。這個時候偏移量已經(jīng)落后了 3s,所以在這 3s內(nèi)到達(dá)的消息會被重復(fù)處理。可以通過修改提交時間間隔來更頻繁地提交偏移量,減小可能出現(xiàn)重復(fù)消息的時間窗,不過這種情況是無法完全避免的。

2. 手動提交

(1) 同步提交

// 把a(bǔ)uto.commit.offset設(shè)為false,讓應(yīng)用程序決定何時提交偏移量
props.put("auto.commit.offset", false);

try{
    while(true) {
        ConsumerRecords<String, String> records = consumer.poll(1000);
        for(ConsumerRecord<String, String> record : records) {
            // 假設(shè)把記錄內(nèi)容打印出來就算處理完畢
            System.out.println("value = " + record.value() + ", topic = " + record.topic() + 
                    ", partition = " + record.partition() + ", offset = " + record.offset());
        }
        
        try{
            // 只要沒有發(fā)生不可恢復(fù)的錯誤,commitSync() 方法會一直嘗試直至提交成功
            // 如果提交失敗,我們也只能把異常記錄到錯誤日志里
            consumer.commitSync();
        }catch(CommitFailedException e) {
            System.err.println("commit  failed!" + e.getMessage());
        }
    }
}finally {
    consumer.close();
}

(2) 異步提交

手動提交有一個不足之處,在 broker 對提交請求作出回應(yīng)之前,應(yīng)用程序會一直阻塞,這樣會限制應(yīng)用程序的吞吐量。我們可以通過降低提交頻率來提升吞吐量,但如果發(fā)生了再均衡,會增加重復(fù)消息的數(shù)量。

這個時候可以使用異步提交,只管發(fā)送提交請求,無需等待 broker 的響應(yīng)。

// 把a(bǔ)uto.commit.offset設(shè)為false,讓應(yīng)用程序決定何時提交偏移量
props.put("auto.commit.offset", false);

try{
    while(true) {
        ConsumerRecords<String, String> records = consumer.poll(1000);
        for(ConsumerRecord<String, String> record : records) {
            System.out.println("value = " + record.value() + ", topic = " + record.topic() + 
                    ", partition = " + record.partition() + ", offset = " + record.offset());
        }
        // 提交最后一個偏移量,然后繼續(xù)做其他事情。
        consumer.commitAsync();
    }
}finally {
    consumer.close();
}

在成功提交或碰到無法恢復(fù)的錯誤之前,commitSync()會一直重試,但是commitAsync()不會,這也是commitAsync()不好的一個地方。它之所以不進(jìn)行重試,是因為在它收到服務(wù)器響應(yīng)的時候,可能有一個更大的偏移量已經(jīng)提交成功。

假設(shè)我們發(fā)出一個請求用于提交偏移量2000,這個時候發(fā)生了短暫的通信問題,服務(wù)器收不到請求,自然也不會作出任何響應(yīng)。與此同時,我們處理了另外一批消息,并成功提交了偏移量3000。如果commitAsync()重新嘗試提交偏移量2000,它有可能在偏移量3000之后提交成功。這個時候如果發(fā)生再均衡,就會出現(xiàn)重復(fù)消息。

commitAsync()也支持回調(diào),在broker作出響應(yīng)時會執(zhí)行回調(diào):

// 把a(bǔ)uto.commit.offset設(shè)為false,讓應(yīng)用程序決定何時提交偏移量
props.put("auto.commit.offset", false);

try {
    while (true) {
        ConsumerRecords<String, String> records = consumer.poll(1000);
        for (ConsumerRecord<String, String> record : records) {
            System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "
                    + record.partition() + ", offset = " + record.offset());
        }
        consumer.commitAsync(new OffsetCommitCallback() {
            @Override
            public void onComplete(Map<TopicPartition, OffsetAndMetadata> offsets, Exception exception) {
                if(offsets != null) {
                    System.out.println("commit offset successful!");
                }
                if(exception != null) {
                    System.out.println("commit offset fail!" + exception.getMessage());
                }
            }
        });
    }
} finally {
    consumer.close();
}

可以在回調(diào)中重試失敗的提交,以下為思路:
使用一個單調(diào)遞增的序列號來維護(hù)異步提交的順序。在每次提交偏移量之后或在回調(diào)里提交偏移量時遞增序列號。在進(jìn)行重試前,先檢查回調(diào)的序列號和即將提交的偏移量是否相等,如果相等,說明沒有新的提交,那么可以安全地進(jìn)行重試。如果序列號比較大,說明有一個新的提交已經(jīng)發(fā)送出去了,應(yīng)該停止重試。

(3) 同步和異步組合提交

一般情況下,針對偶爾出現(xiàn)的提交失敗,不進(jìn)行重試不會有太大問題,因為如果提交失敗是因為臨時問題導(dǎo)致的,那么后續(xù)的提交總會有成功的。但如果這是發(fā)生在關(guān)閉消費者或再均衡前的最后一次提交,就要確保能夠提交成功。

try {
    while (true) {
        ConsumerRecords<String, String> records = consumer.poll(1000);
        for (ConsumerRecord<String, String> record : records) {
            System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "
                    + record.partition() + ", offset = " + record.offset());
        }
        // 如果一切正常,我們使用 commitAsync() 方法來提交
        // 這樣速度更快,而且即使這次提交失敗,下一次提交很可能會成功
        consumer.commitAsync();
    }
}catch (Exception e) {
    e.printStackTrace();
}finally {
    try {
        // 使用 commitSync() 方法會一直重試,直到提交成功或發(fā)生無法恢復(fù)的錯誤
        // 確保關(guān)閉消費者之前成功提交了偏移量
        consumer.commitSync();
    }finally {
        consumer.close();
    }
}

(4) 提交特定的偏移量

不管是自動提交還是使用commitAsync()或者commitSync()來提交偏移量,提交的都是 poll() 方法返回的那批數(shù)據(jù)的最大偏移量,想要自定義在什么時候提交偏移量可以這么做:

Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>(); 
int count = 0;

......

try {
    while (true) {
        ConsumerRecords<String, String> records = consumer.poll(1000);
        for (ConsumerRecord<String, String> record : records) {
            System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "
                    + record.partition() + ", offset = " + record.offset());
            
            currentOffsets.put(new TopicPartition(record.topic(), record.partition()), 
                    new OffsetAndMetadata(record.offset() + 1, "no metadata"));
                     
            if (count % 1000 == 0) {
                //  這里調(diào)用的是 commitAsync(),不過調(diào)用 commitSync() 也是完全可以的
                // 當(dāng)然,在提交特定偏移量時,仍然要處理可能發(fā)生的錯誤
                consumer.commitAsync(currentOffsets, null);
            }
            
            count++;         
        }
    }
}finally {
    consumer.close();
}

3. 分區(qū)再均衡監(jiān)聽器

消費者在退出和進(jìn)行分區(qū)再均衡之前,應(yīng)該做一些正確的事情:

  • 提交最后一個已處理記錄的偏移量(必須做)
  • 根據(jù)之前處理數(shù)據(jù)的業(yè)務(wù)不同,你可能還需要關(guān)閉數(shù)據(jù)庫連接池、清空緩存等

程序如何能得知集群要進(jìn)行"分區(qū)再均衡"了?消費者 API 提供了再均衡監(jiān)聽器,以下程序可以做到 kafka 消費數(shù)據(jù)的 Exactly Once 語義:

package com.bonc.rdpe.kafka110.consumer;

import java.util.Collection;
import java.util.Collections;
import java.util.HashMap;
import java.util.Map;
import java.util.Properties;

import org.apache.kafka.clients.consumer.ConsumerRebalanceListener;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.common.TopicPartition;

/**
 * @Title RebalanceListenerConsumer.java 
 * @Description 再均衡監(jiān)聽器
 * @Author YangYunhe
 * @Date 2018-06-27 17:35:05
 */
public class RebalanceListenerConsumer {
    
    public static void main(String[] args) {
        
        Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>(); 

        Properties props = new Properties();
        props.put("bootstrap.servers", "192.168.42.89:9092,192.168.42.89:9093,192.168.42.89:9094");
        // 把a(bǔ)uto.commit.offset設(shè)為false,讓應(yīng)用程序決定何時提交偏移量
        props.put("auto.commit.offset", false);
        props.put("group.id", "dev3-yangyunhe-group001");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);

        consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {
            
            /*
             * 再均衡開始之前和消費者停止讀取消息之后被調(diào)用
             * 如果在這里提交偏移量,下一個接管分區(qū)的消費者就知道該從哪里開始讀取了
             */
            @Override
            public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
                // 如果發(fā)生再均衡,我們要在即將失去分區(qū)所有權(quán)時提交偏移量
                // 要注意,提交的是最近處理過的偏移量,而不是批次中還在處理的最后一個偏移量
                System.out.println("Lost partitions in rebalance. Committing current offsets:" + currentOffsets);
                consumer.commitSync(currentOffsets);
            }
            
            /*
             * 在重新分配分區(qū)之后和新的消費者開始讀取消息之前被調(diào)用
             */
            @Override
            public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
                
                long committedOffset = -1;
                for(TopicPartition topicPartition : partitions) {
                    // 獲取該分區(qū)已經(jīng)消費的偏移量
                    committedOffset = consumer.committed(topicPartition).offset();
                    // 重置偏移量到上一次提交的偏移量的下一個位置處開始消費
                    consumer.seek(topicPartition, committedOffset + 1);
                }
                
            }
        });

        try {
            while (true) {
                ConsumerRecords<String, String> records = consumer.poll(1000);
                for (ConsumerRecord<String, String> record : records) {
                    System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "
                            + record.partition() + ", offset = " + record.offset());
                    
                    currentOffsets.put(new TopicPartition(record.topic(), record.partition()), 
                            new OffsetAndMetadata(record.offset() + 1, "no metadata"));
                }
                consumer.commitAsync(currentOffsets, null);
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            try{
                consumer.commitSync(currentOffsets);
            } catch (Exception e) {
                e.printStackTrace();
            } finally {
                consumer.close();
                System.out.println("Closed consumer successfully!");
            }
        }
    }
}

當(dāng)然你也可以選擇再均衡后從頭開始消費:

consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {

    @Override
    public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
        System.out.println("starting partitions rebalance...");
    }

    @Override
    public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
        consumer.seekToBeginning(partitions);
    }
});

以上代碼與 props.put("auto.offset.reset", "earliest");是等效的。

設(shè)置從最新消息開始消費:

consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {

    @Override
    public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
        System.out.println("starting partitions rebalance...");
    }

    @Override
    public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
        consumer.seekToEnd(partitions);
    }
});

以上代碼與props.put("auto.offset.reset", "latest");等效。

4. 涉及到數(shù)據(jù)庫的 Exactly Once 語義的實現(xiàn)思路

當(dāng)處理 Kafka 中的數(shù)據(jù)涉及到數(shù)據(jù)庫時,那么即使每處理一條數(shù)據(jù)提交一次偏移量,也可以造成數(shù)據(jù)重復(fù)處理或者丟失數(shù)據(jù),看以下為偽代碼:

Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>(); 
......

while (true) { 
    ConsumerRecords<String, String> records = consumer.poll(100); 
    for (ConsumerRecord<String, String> record : records) { 

    currentOffsets.put(new TopicPartition(record.topic(), record.partition()), 
 new OffsetAndMetadata(record.offset() + 1); 

    // 處理數(shù)據(jù)
    processRecord(record); 
    // 把數(shù)據(jù)存儲到數(shù)據(jù)庫中
    storeRecordInDB(record); 

    // 提交偏移量
    consumer.commitAsync(currentOffsets); 
 } 
}

假設(shè)把數(shù)據(jù)存儲到數(shù)據(jù)庫后,沒有來得及提交偏移量程序就因某種原因掛掉了,那么程序再次啟動后就會重復(fù)處理數(shù)據(jù),數(shù)據(jù)庫中會有重復(fù)的數(shù)據(jù)。

如果把存儲到數(shù)據(jù)庫和提交偏移量在一個原子操作里完成,就可以避免這樣的問題,但數(shù)據(jù)存到數(shù)據(jù)庫,偏移量保存到kafka是無法實現(xiàn)原子操作的,而如果把數(shù)據(jù)存儲到數(shù)據(jù)庫中,偏移量也存儲到數(shù)據(jù)庫中,這樣就可以利用數(shù)據(jù)庫的事務(wù)來把這兩個操作設(shè)為一個原子操作,同時結(jié)合再均衡監(jiān)聽器就可以實現(xiàn) Exactly Once 語義,以下為偽代碼:

consumer.subscribe(Collections<String> topics, new ConsumerRebalanceListener() {
    
    @Override
    public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
        // 發(fā)生分區(qū)再均衡之前,提交事務(wù)
        commitDBTransaction();
    }
    
    @Override
    public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
        // 再均衡之后,從數(shù)據(jù)庫獲得消費偏移量
        for(TopicPartition topicPartition : partitions) {
            consumer.seek(topicPartition, getOffsetFromDB(topicPartition));
        }
    }
});

/**
 * 消費之前調(diào)用一次 poll(),讓消費者加入到消費組中,并獲取分配的分區(qū)
 * 然后馬上調(diào)用 seek() 方法定位分區(qū)的偏移量
 * seek() 設(shè)置消費偏移量,設(shè)置的偏移量是從數(shù)據(jù)庫讀出來的,說明本次設(shè)置的偏移量已經(jīng)被處理過
 * 下一次調(diào)用 poll() 就會在本次設(shè)置的偏移量上加1,開始處理沒有處理過的數(shù)據(jù)
 * 如果seek()發(fā)生錯誤,比如偏移量不存在,則會拋出異常
 */
consumer.poll(0);
for(TopicPartition topicPartition : consumer.assignment()) {
    consumer.seek(topicPartition, getOffsetFromDB(topicPartition));
}

while (true) {
    ConsumerRecords<String, String> records = consumer.poll(1000);
    for (ConsumerRecord<String, String> record : records) {
        // 處理數(shù)據(jù)
        processRecord(record); 
        // 把數(shù)據(jù)存儲到數(shù)據(jù)庫中
        storeRecordInDB(record); 
        // 把偏移量存儲到數(shù)據(jù)庫中
        storeOffsetInDB(record.topic(), record.partition(), record.offset()); 
    }
    // 以上3步為一個事務(wù),提交事務(wù),這里在每個批次末尾提交一次事務(wù),是為了提高性能
    commitDBTransaction();
}

把偏移量和記錄保存到用一個外部系統(tǒng)來實現(xiàn) Exactly Once 有很多方法,但核心思想都是:結(jié)合 ConsumerRebalanceListener 和 seek() 方法來確保能夠及時保存偏移量,并保證消費者總是能夠從正確的位置開始讀取消息。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,461評論 6 532
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,538評論 3 417
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,423評論 0 375
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,991評論 1 312
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 71,761評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,207評論 1 324
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,268評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,419評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,959評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 40,782評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,983評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,528評論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 44,222評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,653評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,901評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,678評論 3 392
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 47,978評論 2 374

推薦閱讀更多精彩內(nèi)容

  • Kafka - 偏移量提交 一、偏移量提交 消費者提交偏移量的主要是消費者往一個名為_consumer_offse...
    寒滄閱讀 2,473評論 0 4
  • 姓名:周小蓬 16019110037 轉(zhuǎn)載自:http://blog.csdn.net/YChenFeng/art...
    aeytifiw閱讀 34,737評論 13 425
  • 1. 訂閱主題 (1)訂閱主題的全部分區(qū) (2) 用正則表達(dá)式來訂閱主題的全部分區(qū) (3) 訂閱指定的分區(qū) 2. ...
    CoderJed閱讀 3,060評論 0 2
  • Spring Cloud為開發(fā)人員提供了快速構(gòu)建分布式系統(tǒng)中一些常見模式的工具(例如配置管理,服務(wù)發(fā)現(xiàn),斷路器,智...
    卡卡羅2017閱讀 134,785評論 18 139
  • 其實最近挺忙的,沒怎么“充電”,所以不太敢提筆寫文。白天忙得焦頭爛額,晚上就不太想做太耗神的事情,只想安安靜靜地看...
    瑤瑜閱讀 340評論 2 2