基本信息:
環境:
centos 7.9
集群信息:
ip:10.10.5.26
ip:10.10.5.25
ip:10.10.5.24
服務信息:
zookeeper版本 3.6.3
kafka版本:2.8.1
1.安裝Zookeeper
#上傳安裝包,并創建zookeeper目錄
mkdir -p /usr/local/zookeeper
tar -xzvf zookeeper-3.6.3.tar.gz -C /usr/local/zookeeper
cd /usr/local/zookeeper/
#創建data和logs目錄,用于存放產生的數據和日志文件
mkdir data
mkdir logs
mv apache-zookeeper-3.6.3-bin zookeeper-3.6.3
cd zookeeper-3.6.3/conf
cp zoo_sample.cfg zoo.cfg
#在配置文件zoo.cfg中配置數據和日志目錄:
vim zoo.cfg
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/logs
因為要搭建集群,所以需要給每一個zookeeper節點一個id,這里是在data目錄下新建一個myid文件,里面只包括該節點的id
cd /usr/local/zookeeper/data
#此id可設置為服務器ip最后一位
vim myid
1
然后三臺虛擬機配完之后,還要到conf下的zoo.cfg把集群的節點都配置上
cd /usr/local/zookeeper/zookeeper-3.6.3/conf
vim zoo.cfg
#每個zookeeper節點都配置一下
server.1=10.10.5.26:2888:3888
server.2=10.10.5.25:2888:3888
server.3=10.10.5.24:2888:3888
為了我們使用,我們配置一下zookeeper的環境變量,否則的話每次啟動zookeeper都要到zookeeper的bin目錄下啟動
vim /etc/profile
#把下面內容復制到文件末尾(第一行的目錄根據自己的安裝路徑來配置,可以使用pwd查看):
# zk env
export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.6.3
export PATH=$ZOOKEEPER_HOME/bin:$PATH
export PATH
source /etc/profile
三臺電腦都這樣配置上。 然后就可以啟動了!
zkServer.sh start
三個節點都啟動后查看節點狀態:
zkServer.sh status
如果向這樣(兩個follower,一個leader)就算是成功了
...
Mode:follower
...
Mode:follower
...
Mode:leader
如果出現error了可以去logs目錄下查看.out文件,這是他的日志,報錯都會在里面體現,有什么報錯一般都可以百度到答案,大部分的錯誤是防火墻的問題,把防火墻關掉就好了。
下面是幾個常用的命令:
zkServer.sh start #啟動zookeeper
zkServer.sh stop #關閉zookeeper
zkServer.sh restart #重啟
zkCli.sh -timeout 0 -r -server ip:port # 測試節點連通
2.安裝kafka
#上傳并解壓
tar -xzvf kafka_2.13-2.8.1.tgz -C /usr/local/
mv /usr/local/kafka_2.12-2.8.1 /usr/local/kafka2.8.1
配置環境變量
cat <<EOF> /etc/profile.d/kafka.sh
export KAFKA_HOME=/usr/local/kafka2.8.1
export PATH=$PATH:$KAFKA_HOME/bin
EOF
source /etc/profile.d/kafka.sh
修改停止腳本
vi bin/kafka-server-stop.sh
#kill -s $SIGNAL $PIDS
#修改為
kill -9 $PIDS
vim bin/kafka-server-start.sh
用于監控的配置,修改,增加 JMX_PORT,可以獲取更多指標
注意端口被占用
if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
export JMX_PORT="9198"
fi
關鍵配置如下:
下面是重要配置注釋
cat /usr/local/kafka2.8.1/config/server.properties
name #含義 舉例
broker.id #一個Kafka節點就是一個Broker.id,要保證唯一性 broker.id=0
listeners #kafka只面向內網時用到listeners,內外網需要作區分時才需要用到advertised.listeners listeners=PLAINTEXT://192.168.0.137:9092
zookeeper.connect #配置zk集群信息 zookeeper.connect=192.168.0.19:2181
修改配置文件:
vim /usr/local/kafka2.8.1/config/server.properties
broker.id=17
listeners=PLAINTEXT://10.10.5.17:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/usr/local/kafka_2.12-2.8.1/logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=10.10.5.24:2181,10.10.5.25:2181,10.10.5.26:2181
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0
新建啟動kafka腳本
cat <<EOF> /usr/local/kafka2.8.1/start.sh
#!/bin/bash
nohup kafka-server-start.sh config/server.properties >> /usr/local/kafka2.8.1/nohup.out 2>&1 &
EOF
chmod +x /usr/local/kafka2.8.1/start.sh
新建重啟kafka腳本
cat <<EOF> /usr/local/kafka2.8.1/restart.sh
#!/bin/bash
kafka-server-stop.sh
nohup kafka-server-start.sh config/server.properties >> /usr/local/kafka2.8.1/nohup.out 2>&1 &
EOF
chmod +x /usr/local/kafka2.8.1/restart.sh
設置systemd自啟動
cat /usr/lib/systemd/system/kafka.service
[Unit]
Description=kafka
After=network.target remote-fs.target nss-lookup.target zookeeper.service
[Service]
Type=forking
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/local/java/jdk1.8.0_161/bin"
ExecStart=/usr/local/kafka2.8.1/kafka_start_my.sh -daemon /usr/local/kafka2.8.1/config/server.properties
ExecReload=/bin/kill -s HUP $MAINPID
ExecStop=/usr/local/kafka2.8.1/bin/kafka-server-stop.sh
#PrivateTmp=true
[Install]
WantedBy=multi-user.target
以上kafka三節點集群搭建完畢
注意:只有先啟動zookeeper后才能正常啟動kafka
kafka 可視化
再github上找kowl鏡像,此應用為kafka-web(可視化工具)
web管理 ----(kowl)
docker run -d -p 19092:8080 -e KAFKA_BROKERS=10.10.5.22:9002 rsmnarts/kowl:latest