kafka簡單介紹
Kafka 是 LinkedIn 開源的一種高吞吐量的分布式發布訂閱消息系統,kafka的誕生就是為了處理海量日志數據,所以kafka處理消息的效率非常高,即使是非常普通的硬件也可以支持每秒數百萬的消息。
kafka 天然支持集群負載均衡,使用 zookeeper 進行分布式協調管理。不支持事務,有一定概率丟失消息。
kafka 的特點,決定了使用場景:日志中間件。
下載docker鏡像
zookeeker: docker pull zookeeper:latest
kafka: docker pull wurstmeister/kafka:latest
創建并啟動容器
先啟動zookeeper:
docker run -d --name zookeeper --publish 2181:2181 \
--volume /etc/localtime:/etc/localtime \
zookeeper:latest
zookeeper啟動完成后再啟動kafka:
docker run -d --name kafka --publish 9092:9092 \
--link zookeeper \
--env KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 \
--env KAFKA_ADVERTISED_HOST_NAME=kafka所在宿主機的IP \
--env KAFKA_ADVERTISED_PORT=9092 \
--volume /etc/localtime:/etc/localtime \
wurstmeister/kafka:latest
向kafka發送測試消息
運行 docker ps
,找到kafka的 CONTAINER ID,運行 docker exec -it ${CONTAINER ID} /bin/bash
,進入kafka容器。
進入kafka默認目錄 /opt/kafka_2.11-0.10.1.0
,運行 bin/kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 --partitions 1 --topic test
,創建一個 topic 名稱為 test。
運行 bin/kafka-topics.sh --list --zookeeper zookeeper:2181
查看當前的 topic 列表。
運行一個消息生產者,指定 topic 為剛剛創建的 test , bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
,輸入一些測試消息。
運行一個消息消費者,同樣指定 topic 為 test, bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
,可以接收到生產者發送的消息。
最后
kafka 環境已經搭建完成,接下來我們要對之前的工程進行改造,使用 log4j2 的 kafka appender 把日志統一輸出到 kafka 日志中間件。
日志導入 kafka 之后,接下來的處理就比較靈活了,可以用不同功能的消費者訂閱感興趣的 topic,進行日志分析。例如:使用 kafka 作為 storm 的數據來源 spout,進行流式處理;訂閱 kafka 中需要做離線統計處理的 topic,把數據保存到數據庫,一般是 mongodb 或 hbase 這種數據結構松散的 nosql 數據庫;又或者可以使用 flume 或 logstash 這種管道工具,把數據導入到其他的系統,比如 elasticsearch、 solr 等。
kafka 作為最常用的日志中間件,可以把分散的日志集中到一處,并做緩沖處理,再和其他開源工具進行集成,對數據做進一步處理,是日志統計系統的基礎組件。