本文首先進行 Flink Kafka Consumer 原理分析,結合 SourceFunction 和 Kafka Client API 詳解源碼。
1.Flink Kafka Consumer 原理
本文基于 flink-1.11 分析 Kafka Consumer 原理。
FlinkKafkaConsumer 主要是繼承基類 RichParallelSourceFunction,不但可以執行 run(...) 方法讀取數據,而且擁有狀態、metric 和多并發等功能。
1.1 RichParallelSourceFunction 分析
RichParallelSourceFunction 與父類的繼承關系,如下圖所示。一方面,RichParallelSourceFunction 間接實現接口 SourceFunction,可以執行 run(...) 方法讀取數據;另一方面,RichParallelSourceFunction 間接實現接口 RichFunction,擁有狀態、metric 和多并發等功能。因此,RichParallelSourceFunction 是有狀態的和多并發的 Source 基類。
① ParallelSourceFunction 是接口 SourceFunction 的子類。共同點是 Source 的基類,需要實現 run() 讀取數據。不同點是前者提供多并發的能力,后者的并發度只能為 1;
② AbstractRichFunction 是接口 RichFunction 的實現類,可以提供 open() 方法獲取 RuntimeContext,而 RuntimeContext 擁有 metric、subtasks 信息、accumulator、state 等功能;
1.2 Flink Kafka Consumer 流程分析
如下圖所示,Flink Kafka Consumer 流程主要分為 ①主線程循環獲取緩存數據,發送到下游;②消費線程循環消費 Kafka 數據,保存到緩存。
Handover.next:Handover 類的 next 屬性,即 ConsumerRecords 類型的緩存數據。Handover 的主要作用是協調主線程和消費線程,有序地消費 Kafka 和發送數據到下游算子。
(1)主線程
主線程獲取緩存的 Handover.next 對象即 ConsumerRecords,發送到下游算子。首先創建 KafkaFetcher,同時內部創建消費線程 KafkaConsumerThread。然后,調用 KafkaFetcher.runFetchLoop() 方法,啟動消費線程、循環獲取緩存數據;最后,根據分區往下游發送數據。
(2)消費線程
消費線程 KafkaConsumerThread 主要循環消費 Kafka 數據,保存到緩存。首先,主線程啟動消費線程。接著,KafkaConsumer 從 Kafka Broker 循環 poll 數據,同時保持到緩存中。
2.Flink Kafka Consumer 源碼詳解
問題1:如何使用 FlinkKafkaConsumer ?如何直接使用 KafkaClient API ?
/**
* 示例1: Flink DataStream API 使用 FlinkKafkaConsumer
**/
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
//SimpleStringSchema為數據字段解析類
env.addSource(new FlinkKafkaConsumer<>("eventTopic", new SimpleStringSchema(), properties)
/**
* 示例2: KafkaClient API 直接使用 KafkaConsumer
**/
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties);
consumer.poll(Duration.ofMillis(100));
問題2:FlinkKafkaConsumer 內部是如何使用 KafkaClient API ?
① 初始化
執行 env.addSource 的時候會創建 StreamSource 算子對象;StreamSource 構造函數中將 function 即 FlinkKafkaConsumer 對象傳給父類 AbstractUdfStreamOperator 的 userFunction 變量;
StreamExecutionEnvironment源碼:
public <OUT> DataStreamSource<OUT> addSource(SourceFunction<OUT> function, String sourceName, TypeInformation<OUT> typeInfo) {
// 省略...
// function 即 FlinkKafkaConsumer
final StreamSource<OUT, ?> sourceOperator = new StreamSource<>(function);
// 省略...
}
AbstractUdfStreamOperator源碼:
// userFunction 即 FlinkKafkaConsumer
public AbstractUdfStreamOperator(F userFunction) {
this.userFunction = requireNonNull(userFunction);
checkUdfCheckpointingPreconditions();
}
② Task 啟動和運行
Task 實現 Java多線程接口 Runnable。Task 啟動后,函數調用鏈如下 Task.run() -> Task.doRun() -> StreamTask.invoke() -> StreamTask.runMailboxLoop() -> MailboxProcessor.runMailboxLoop() -> MailboxProcessor.runMailboxStep() -> SourceStreamTask .processInput()。processInput() 方法里面啟動線程 sourceThread.start()。上述的關鍵源碼,如下所示。
StreamTask 源碼如下:
@Override
public final void invoke() throws Exception {
// 省略...
// 調用 MailboxProcessor.runMailboxLoop()
runMailboxLoop();
// 省略...
}
MailboxProcessor 源碼如下:
public void runMailboxLoop() throws Exception {
// 省略...
// 循環執行 runMailboxStep
while (runMailboxStep(localMailbox, defaultActionContext)) {
}
}
private boolean runMailboxStep(TaskMailbox localMailbox, MailboxController defaultActionContext) throws Exception {
if (processMail(localMailbox)) {
// 執行 mailboxDefaultAction.runDefaultAction,即執行 SourceStreamTask .processInput()
mailboxDefaultAction.runDefaultAction(defaultActionContext); // lock is acquired inside default action as needed
return true;
}
return false;
}
SourceStreamTask 源碼如下:
@Override
protected void processInput(MailboxDefaultAction.Controller controller) throws Exception {
// 由于目前沒有輸入,TaskMailbox 先暫停 loop 主線程
controller.suspendDefaultAction();
sourceThread.setTaskDescription(getName());
sourceThread.start();
// 省略...
}
private class LegacySourceFunctionThread extends Thread {
// 省略...
@Override
public void run() {
try {
// 執行 source function 的 run() 方法
mainOperator.run(lock, getStreamStatusMaintainer(), operatorChain);
completionFuture.complete(null);
} catch (Throwable t) {
completionFuture.completeExceptionally(t);
}
}
// 省略...
}
③ 消費 Kafka
FlinkKafkaConsumerBase 間接實現了 SourceFunction 接口,主要實現 run() 方法。然后,在 run() 方法創建了一個 KafkaFetcher 對象,并主要調用 KafkaFetcher.runFetchLoop()。最終,運行消費線程 KafkaConsumerThread,并 while 循環地 poll Kafka 數據。上述的關鍵源碼,如下所示。
FlinkKafkaConsumerBase 源碼如下:
@Override
public void run(SourceContext<T> sourceContext) throws Exception {
// 省略...
// 創建 KafkaFetcher 對象
this.kafkaFetcher = createFetcher(
sourceContext,
subscribedPartitionsToStartOffsets,
watermarkStrategy,
(StreamingRuntimeContext) getRuntimeContext(),
offsetCommitMode,
getRuntimeContext().getMetricGroup().addGroup(KAFKA_CONSUMER_METRICS_GROUP),
useMetrics);
// 省略...
// kafkaFetcher 執行 runFetchLoop(),即循環消費數據
kafkaFetcher.runFetchLoop();
// 省略...
}
KafkaFetcher 源碼如下:
@Override
public void runFetchLoop() throws Exception {
try {
// 啟動消費線程 KafkaConsumerThread
consumerThread.start();
while (running) {
// 獲取協調者 Handover 的 next 緩存值
final ConsumerRecords<byte[], byte[]> records = handover.pollNext();
// 從partition 獲取 數據
for (KafkaTopicPartitionState<T, TopicPartition> partition : subscribedPartitionStates()) {
List<ConsumerRecord<byte[], byte[]>> partitionRecords =
records.records(partition.getKafkaPartitionHandle());
// 向下游發送數據
partitionConsumerRecordsHandler(partitionRecords, partition);
}
}
}
finally {
consumerThread.shutdown();
}
KafkaConsumerThread 源碼如下,run() 方法中創建 KafkaClient API 的 KafkaConsumer,并使用 KafkaConsumer.poll() 消費數據。
@Override
public void run() {
// 省略...
// 從主線程獲取的 handover 賦值給本地變量...
final Handover handover = this.handover;
// 省略...
try {
// 創建 KafkaConsumer
this.consumer = getConsumer(kafkaProperties);
}
catch (Throwable t) {
handover.reportError(t);
return;
}
// 省略...
ConsumerRecords<byte[], byte[]> records = null;
// while 循環消費 Kafka
while (running) {
// 省略...
if (records == null) {
try {
// KafkaConsumer poll 數據,即使用 KafkaClient API 的 KafkaConsumer 消費數據
records = consumer.poll(pollTimeout);
}
catch (WakeupException we) {
continue;
}
}
try {
// 把 Kafka 的數據保存在 Handover 的緩存中
handover.produce(records);
records = null;
}
// 省略...
}
}
問題3:Handover 是如何協調消費線程和主線程,使得前者可以及時消費和保存數據,而后者也可以及時獲取數據 ?
Handover 的關鍵方法是 produce() 保存緩存數據 next、pollNext() 獲取緩存數據 next,主要作用是在消費線程和主線程下,保證同一個緩存數據 next ,在同一時間內是不能既更新(寫),也輸出(讀),即保證原子性操作 next。
Handover 源碼如下:
/**
* consumer 線程把 Kafka 數據保存到 next
**/
public void produce(final ConsumerRecords<byte[], byte[]> element)
throws InterruptedException, WakeupException, ClosedException {
checkNotNull(element);
synchronized (lock) {
// 循環判斷 next 是否為 null
while (next != null && !wakeupProducer) {
// lock 會釋放當前的鎖,該 consumer 線程進入 waiting 狀態
lock.wait();
}
// 省略...
else if (error == null) {
// 寫 next
next = element;
// 喚醒 lock(使得處于 waiting 狀態的 main 線程能夠繼續執行)
lock.notifyAll();
}
// 省略...
}
}
/**
* main 線程讀取 next
**/
public ConsumerRecords<byte[], byte[]> pollNext() throws Exception {
synchronized (lock) {
// 循環判斷 next 是否為 null
while (next == null && error == null) {
// lock 會釋放當前的鎖,該 main 線程進入 waiting 狀態
lock.wait();
}
// 讀取 next
ConsumerRecords<byte[], byte[]> n = next;
if (n != null) {
next = null;
// 喚醒 lock(使得處于 waiting 狀態的 consumer 線程能夠繼續執行)
lock.notifyAll();
return n;
}
// 省略...
}
}
Java 多線程的等待/通知機制:Object 的 wait()、notify/notifyAll()
① 當線程執行 wait() 方法的時候,會釋放當前的鎖,然后讓出CPU,進入等待狀態。
② 當線程執行 notify/notifyAll() 方法的時候,會喚醒一個或多個正處于等待狀態的線程,然后繼續往下執行,直到執行完synchronized 代碼塊的代碼或是中途遇到 wait() ,再次釋放鎖。