一、環境
- Elasticsearch 版本:8.8
- kibana版本:8.8.0
- Windows11環境 Fluentd版本:1.17.3
二、配置Fluentd.conf
Fluentd官網:https://docs.fluentd.org/
當下載、安裝好后配置文件正常會在安裝目錄下的etc目錄下。D:\fluent\etc\fluent\fluentd.conf
# 配置全局系統設置
<system>
# 設置fluentd服務的日志級別為info,意味著只記錄fluentd服務info及以上級別的日志信息
log_level debug
# 指定Fluentd服務的日志文件路徑
log D:/fluent/logs/fluentd_service.log
</system>
# 定義一個數據源
<source>
# 使用tail插件來監控文件
@type tail
# 監控的日志文件路徑,這里使用通配符*來匹配多個文件
path D:/log/*.log
# 保存讀取位置的文件,用于斷點續傳
pos_file D:/log/chaoqian.log.pos
# 為收集到的數據打上的標簽,方便后續處理
tag chaoqian
# 解析器配置
<parse>
# 使用json解析器,因為日志文件中的內容是JSON格式
@type json
</parse>
# 指定日志記錄中的時間字段
time_key record.time.repr
time_type string
time_format %Y-%m-%d %H:%M:%S.%L%z
</source>
# 定義 chaoqian 標簽 的數據輸出目的地
<match chaoqian>
# 使用elasticsearch插件將數據發送到Elasticsearch
@type elasticsearch
# Elasticsearch服務器地址
host localhost
# Elasticsearch監聽端口
port 9200
# 連接Elasticsearch的協議,這里使用https
scheme https
# 是否驗證SSL證書,false表示不驗證
ssl_verify false
# 連接Elasticsearch的用戶名
user fluentd_user
# 連接Elasticsearch的密碼
password Lq3FDhZ39E2GvnUr3Lw4
# 數據存儲的索引名
index_name fluentd_prod.${tag}
# 是否啟用Logstash兼容模式,默認為false
logstash_format true
# 每秒提交一次日志
flush_interval 1s
# 每條日志記錄都會有時間字段
include_timestamp true
</match>
通過接口查詢所有索引,可以看得到索引已經成功創建了。
這里我們沒有預先在Elasticsearch 創建索引,是因為默認情況下,Elasticsearch 是允許動態創建索引的,除非顯式禁用了 action.auto_create_index。
注意:只有當向索引發送了數據后,對應的索引才會進行創建。
image.png
三、Kinaba展示日志數據
- 配置數據視圖,用于綁定索引;
image.png
image.png
image.png
image.png
可以看到,日志數據展示出來了;
需要哪些日志字段,可以在左邊勾選,然后就會在右邊Table展示。
image.png