前言
上一篇 基于docker部署的微服務(wù)架構(gòu)(五): docker環(huán)境下的zookeeper和kafka部署 中,已經(jīng)成功部署了 kafka 環(huán)境,現(xiàn)在我們要改造之前的項目,使用 log4j2 的 kafka appender 把日志統(tǒng)一輸出到 kafka 中。
修改日志系統(tǒng)
spring boot 默認(rèn)使用 logback 作為日志工具,這里需要作出修改。
以 service-registry-demo 為例,其他項目做相同的修改。
修改 pom.xml 文件,去掉默認(rèn)的日志依賴,并引入 log4j2:
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
<exclusions>
<exclusion>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-logging</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-log4j2</artifactId>
</dependency>
引入 kafka 客戶端:
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>0.10.0.1</version>
</dependency>
修改 <properties>
標(biāo)簽的內(nèi)容,增加 kafka server 的配置,后邊創(chuàng)建的 log4j2.xml 從這里讀取 kafka 的服務(wù)器地址:
<kafka.bootstrap.servers>kafka宿主機(jī)IP:9092</kafka.bootstrap.servers>
在 docker profile中配置 docker 環(huán)境的 kafka server:<kafka.bootstrap.servers>kafka:9092</kafka.bootstrap.servers>
,在啟動容器時使用 --link kafka
,連接kafka容器。
在 resources 目錄下新建 log4j2.xml :
<?xml version="1.0" encoding="UTF-8"?>
<Configuration>
<Properties>
<Property name="logFormat">
%d{yyyy-MM-dd HH:mm:ss.SSS}{GMT+8} [@project.artifactId@] [%thread] %-5level %logger{35} - %msg %n
</Property>
<Property name="kafkaBootstrapServers">
@kafka.bootstrap.servers@
</Property>
</Properties>
<Appenders>
<Console name="STDOUT" target="SYSTEM_OUT">
<PatternLayout pattern="${logFormat}"/>
</Console>
<RollingFile name="RollingFile" fileName="logs/@project.artifactId@.log"
filePattern="logs/@project.artifactId@.%d{yyyy-MM-dd}.log">
<PatternLayout>
<Pattern>
${logFormat}
</Pattern>
</PatternLayout>
<Policies>
<TimeBasedTriggeringPolicy/>
</Policies>
</RollingFile>
<Kafka name="basicLog" topic="basic-log">
<PatternLayout>
<Pattern>
${logFormat}
</Pattern>
</PatternLayout>
<Property name="bootstrap.servers">${kafkaBootstrapServers}</Property>
</Kafka>
<Async name="FileAsync">
<AppenderRef ref="RollingFile"/>
</Async>
<Async name="basicLogAsync">
<AppenderRef ref="basicLog"/>
</Async>
</Appenders>
<Loggers>
<Logger name="org.apache.kafka" level="info"/>
<Root level="info">
<AppenderRef ref="STDOUT"/>
<AppenderRef ref="FileAsync"/>
<AppenderRef ref="basicLogAsync"/>
</Root>
</Loggers>
</Configuration>
簡單說明下 log4j2.xml 配置文件中的內(nèi)容:
在 <Properties>
標(biāo)簽中定義了 logFormat 和 kafkaBootstrapServers 兩個屬性,這兩個屬性在下邊的日志配置中需要用到,其中 kafkaBootstrapServers 的屬性值從 pom.xml 中讀取,可以根據(jù)不同的 profile 動態(tài)替換。
在 <Appenders>
標(biāo)簽中定義了一系列 appender,從上到下分別是:
- 控制臺 appender
- 根據(jù)日期分割的日志文件 appender
- 把日志輸出到kafka 的 appender,定義了 topic 為 basic-log
- 在日期分割的 appender 之上做了異步處理的 appender,不會阻塞程序運行
- 在 kafka apender 之上做了異步處理的 appender,不會阻塞程序運行
在 <Loggers>
標(biāo)簽中使用了 1、4、5,這3種 appender。2、3 這兩種 appender 在發(fā)生異常時會阻塞程序運行,所以 4、5 在其之上進(jìn)行了異步處理。
查看kafka中的日志數(shù)據(jù)
啟動 service-registry-demo,進(jìn)入 kafka 容器:
運行 docker ps
,找到kafka的 CONTAINER ID,運行 docker exec -it ${CONTAINER ID} /bin/bash
,進(jìn)入kafka容器。
進(jìn)入kafka默認(rèn)目錄 cd /opt/kafka_2.11-0.10.1.0
查看 basic-log 的內(nèi)容:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic basic-log --from-beginning
使用docker-maven-plugin打包并生成docker鏡像
這部分的內(nèi)容和前幾篇文章基本相同,需要注意 docker 環(huán)境下 kafka server 的配置,在啟動容器時需要 --link
連接 kafka 容器。
具體配置參見 demo源碼 spring-cloud-3.0
最后
經(jīng)過上邊的配置,我們已經(jīng)把 service-registry-demo 的日志輸出到了 kafka,其他項目也做同樣的修改,這樣所有項目的日志都集中到了 kafka 。接下來繼續(xù)搭建 ELK 日志統(tǒng)計系統(tǒng),利用 logstash 把 kafka 中的日志數(shù)據(jù)導(dǎo)入到 elasticsearch ,最后用 kibana 顯示日志數(shù)據(jù)。