Kafka學習筆記(二)

Kafka環境搭建

準備工作

Kafka集群是把狀態保存在Zookeeper中的,首先要搭建Zookeeper集群。由于我們之前的分布式系統中已經安裝zookeeper服務,這里不進行zookeeper安裝教程以及應用教程圖解。需要注意的是:Zookeeper集群的工作是超過半數才能對外提供服務,3臺中超過兩臺超過半數,允許1臺掛掉 ,是否可以用偶數,其實沒必要。如果有四臺那么掛掉一臺還剩下三臺服務器,如果在掛掉一個就不行了,這里記住是超過半數。

集群搭建

軟件環境

linux一臺或多臺,大于等于2

已經搭建好的zookeeper集群

kafka_2.10-0.10.1.0或以上穩定版本

創建目錄并下載安裝

1.創建目錄

cd /usr/fuyou/ #進入服務器目錄

mkdir kafka #創建項目目錄

cd kafka?#進入kafka目錄

mkdir kafkalogs?#創建kafka消息目錄,主要存放kafka消息

2.下載軟件

wget ?http://apache.opencas.org/kafka/0.9.0.1/kafka_2.10-0.10.1.0.tgz

3.解壓軟件

tar -zxvf kafka_2.10-0.10.1.0.tgz

修改配置文件

1.進入config目錄

cd /usr/fuyou/kafka/kafka_2.11-0.9.0.1/config/

2.主要修改server.properties配置文件

#########################參數解釋##############################

broker.id=0#當前機器在集群中的唯一標識,和zookeeper的myid性質一樣

port=9092?#當前kafka對外提供服務的端口默認是9092

host.name=192.168.7.100?#這個參數默認是關閉的,在0.8.1有個bug,DNS解析問題,失敗率的問題。

num.network.threads=3?#這個是borker進行網絡處理的線程數

num.io.threads=8?#這個是borker進行I/O處理的線程數

log.dirs=/opt/kafka/kafkalogs/?#消息存放的目錄,這個目錄可以配置為“,”逗號分割的表達式,上面的num.io.threads要大于這個目錄的個數這個目錄,如果配置多個目錄,新創建的topic他把消息持久化的地方是,當前以逗號分割的目錄中,那個分區數最少就放那一個

socket.send.buffer.bytes=102400?#發送緩沖區buffer大小,數據不是一下子就發送的,先回存儲到緩沖區了到達一定的大小后在發送,能提高性能

socket.receive.buffer.bytes=102400?#kafka接收緩沖區大小,當數據到達一定大小后在序列化到磁盤

socket.request.max.bytes=104857600?#這個參數是向kafka請求消息或者向kafka發送消息的請請求的最大數,這個值不能超過java的堆棧大小

num.partitions=1?#默認的分區數,一個topic默認1個分區數

log.retention.hours=168?#默認消息的最大持久化時間,168小時,7天

message.max.byte=5242880#消息保存的最大值5M

default.replication.factor=2#kafka保存消息的副本數,如果一個副本失效了,另一個還可以繼續提供服務

replica.fetch.max.bytes=5242880#取消息的最大直接數

log.segment.bytes=1073741824?#這個參數是:因為kafka的消息是以追加的形式落地到文件,當超過這個值的時候,kafka會新起一個文件

log.retention.check.interval.ms=300000?#每隔300000毫秒去檢查上面配置的log失效時間(log.retention.hours=168?),到目錄查看是否有過期的消息如果有,刪除

log.cleaner.enable=false?#是否啟用log壓縮,一般不用啟用,啟用的話可以提高性能

zookeeper.connect=192.168.7.100:12181,192.168.7.101:12181,192.168.7.107:1218?#設置zookeeper的連接端口

#########################參數解釋##############################


#########################參數修改##############################

broker.id=0#每臺服務器的broker.id都不能相同

host.name=192.168.7.100#hostname

#在log.retention.hours=169下面新增下面三項

message.max.byte=5242880

default.replication.factor=2

replica.fetch.max.bytes=5242880

#設置zookeeper的連接端口

zookeeper.connect=192.168.7.100:12181,192.168.7.101:12181,192.168.7.107:12181

#########################參數修改##############################

啟動kafka

啟動kafka之前要啟動對應的zk集群

1.啟動服務

#從后臺啟動Kafka集群(3臺都需要啟動)

cd?/usr/fuyou/kafka/kafka_2.11-0.9.0.1/bin?

#進入到kafka的bin目錄

./kafka-server-start.sh -daemon ../config/server.properties

2.檢查kafka是否啟動

#執行命令jps

20348 Jps

4233 QuorumPeerMain

18991 Kafka

3.創建topic來驗證是否創建成功

#創建Topic

./kafka-topics.sh --create --zookeeper 192.168.7.100:2181 --replication-factor 2 --partitions 1 --topic shuaige

--replication-factor 2#復制兩份

--partitions?1?#創建1個分區

--topic#主題為shuaige

(以下部分我們在代碼部分實現功能)

'''在一臺服務器上創建一個發布者'''#創建一個broker,發布者

./kafka-console-producer.sh --broker-list 192.168.7.100:19092 --topic shuaige

'''在一臺服務器上創建一個訂閱者'''

./kafka-console-consumer.sh --zookeeper localhost:12181 --topic shuaige --from-beginning

4.查看其他命令

4.1?查看topic

./kafka-topics.sh --list --zookeeper localhost:12181

#就會顯示我們創建的所有topic

4.2?查看topic狀態

./kafka-topics.sh --describe --zookeeper localhost:12181 --topic shuaige

#下面是顯示信息

??Topic:?ssports ???PartitionCount:1 ???ReplicationFactor:2 ???Configs:

?????Topic: shuaige ???Partition: 0 ???Leader: 1 ???Replicas: 0,1 ???Isr: 1

#分區為為1 ?復制因子為2 ??他的 ?shuaige的分區為0

#Replicas: 0,1復制的為0,1

日志說明

kafka的日志是保存在/usr/fuyou/kafka/kafka_2.10-0.10.1.0/logs目錄下的

server.log?#kafka的運行日志

state-change.log#kafka他是用zookeeper來保存狀態,所以他可能會進行切換,切換的日志就保存在這里

controller.log?#kafka選擇一個節點作為“controller”,當發現有節點down掉的時候它負責在游泳分區的所有節點中選擇新的leader,這使得Kafka可以批量的高效的管理所有分區節點的主從關系。如果controller down掉了,活著的節點中的一個會備切換為新的controller.

Kafka刪除相關

從kafka 0.8.2.1開始可以直接刪除topic

步驟如下:

1.在kafka配置文件中添加刪除參數

delete.topic.enable=true

2.利用命令刪除需要刪除的topic

./kafka-topics.sh --delete --zookeeper localhost:2181 --topic mytest

附:如果你只是想快速的搭建一個Kafka服務并且你熟悉docker,那么你可以pull我生成的docker鏡像

docker pull registry.cn-hangzhou.aliyuncs.com/aliyunwsc/zookeeper

docker run d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper?registry.cn-hangzhou.aliyuncs.com/aliyunwsc/zookeeper

這樣zookeeper就已經跑起來了

下面來搭建Kafka

docker pull registry.cn-hangzhou.aliyuncs.com/aliyunwsc/kafka

docker run -d -p 9092:9092 --name kafka registry.cn-hangzhou.aliyuncs.com/aliyunwsc/kafka

docker cp kafka:/usr/local/kafka/config/server.properties .

docker cp server.properties kafka:/usr/local/kafka/config/server.properties

當你運行完這個docker run之后實際你的kafka是起不來的,還需要改一下kafka的配置

設置一下server.properties的zookeeper.connect和advertised.listeners這兩個配置,這兩個配置是肯定要設置的

這樣你的kafka就跑起來了

zookeeper.connect的格式為192.168.31.227:2181/kafka(zookeeper的IP:端口號/zookeeper的目錄)目錄可以省略

advertised.listeners的格式為PLAINTEXT://192.168.31.227:9092(PLAINTEXT://加上kafka虛機的IP:kafka的端口號)

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容