開源實時日志分析ELK平臺部署
日志主要包括系統日志、應用程序日志和安全日志。系統運維和開發人員可以通過日志了解服務器軟硬件信息、檢查配置過程中的錯誤及錯誤發生的原因。經常分析日志可以了解服務器的負荷,性能安全性,從而及時采取措施糾正錯誤。
通常,日志被分散的儲存不同的設備上。如果你管理數十上百臺服務器,你還在使用依次登錄每臺機器的傳統方法查閱日志。這樣是不是感覺很繁瑣和效率低下。當務之急我們使用集中化的日志管理,例如:開源的syslog,將所有服務器上的日志收集匯總。
集中化管理日志后,日志的統計和檢索又成為一件比較麻煩的事情,一般我們使用grep、awk和wc等Linux命令能實現檢索和統計,但是對于要求更高的查詢、排序和統計等要求和龐大的機器數量依然使用這樣的方法難免有點力不從心。
開源實時日志分析ELK平臺能夠完美的解決我們上述的問題,ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成。官方網站:https://www.elastic.co/products
lElasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。
lLogstash是一個完全開源的工具,他可以對你的日志進行收集、分析,并將其存儲供以后使用(如,搜索)。
lkibana也是一個開源和免費的工具,他Kibana可以為Logstash和ElasticSearch提供的日志分析友好的Web界面,可以幫助您匯總、分析和搜索重要數據日志。
工作原理如下如所示:
在需要收集日志的所有服務上部署logstash,作為logstash agent(logstash shipper)用于監控并過濾收集日志,將過濾后的內容發送到logstash indexer,logstash indexer將日志收集在一起交給全文搜索服務ElasticSearch,可以用ElasticSearch進行自定義搜索通過Kibana來結合自定義搜索進行頁面展示。
開源實時日志分析ELK平臺部署流程:
(1)安裝Logstash依賴包JDK
Logstash的運行依賴于Java運行環境,Logstash 1.5以上版本不低于java 7推薦使用最新版本的Java。由于我們只是運行Java程序,而不是開發,下載JRE即可。首先,在Oracle官方下載新版jre,下載地址:http://www.oracle.com/technetwork/java/javase/downloads/jre8-downloads-2133155.html
可以看到提供了多種版本,下載時,選擇適合自己機器運行環境的版本,我使用的是RHEL6.5 x86_64的操作系統,所以,下載linux-64的版本。如果使用Linux下載執行如下命令下載即可。
1
#wget?http://download.oracle.com/otn-pub/java/jdk/8u45-b14/jdk-8u45-linux-x64.tar.gz
JDK的安裝方式比較簡單,只需將下載回來的程序包解壓到相應的目錄即可。
1
2#?mkdir?/usr/local/java
#?tar?-zxf?jdk-8u45-linux-x64.tar.gz?-C?/usr/local/java/
設置JDK的環境變量,如下:
1
2
3
4#?tail?-3?~/.bash_profile
export?JAVA_HOME=/usr/local/java/jdk1.8.0_45
export?PATH=$PATH:$JAVA_HOME/bin
exportCLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH
在Shell提示符中執行java –version命令,顯示如下結果,說明安裝成功:
1
2
3
4#?java?-version
java?version?"1.8.0_45"
Java(TM)?SE?Runtime?Environment?(build?1.8.0_45-b14)
Java?HotSpot(TM)?64-Bit?Server?VM?(build?25.45-b02,mixed?mode)
(2)安裝Logstash
下載并安裝Logstash,安裝logstash只需將它解壓的對應目錄即可,例如:/usr/local下:
1
2#?https://download.elastic.co/logstash/logstash/logstash-1.5.2.tar.gz
#?tar?–zxf?logstash-1.5.2.tar.gz?-C?/usr/local/
安裝完成后運行如下命令:
1
2
3
4#?/usr/local/logstash-1.5.2/bin/logstash?-e?'input?{?stdin?{?}?}?output?{?stdout?{}?}'
Logstash?startup?completed
Hello?World!
2015-07-15T03:28:56.938Z?noc.vfast.com?Hello?World!
我們可以看到,我們輸入什么內容logstash按照某種格式輸出,其中-e參數參數允許Logstash直接通過命令行接受設置。這點尤其快速的幫助我們反復的測試配置是否正確而不用寫配置文件。使用CTRL-C命令可以退出之前運行的Logstash。
使用-e參數在命令行中指定配置是很常用的方式,不過如果需要配置更多設置則需要很長的內容。這種情況,我們首先創建一個簡單的配置文件,并且指定logstash使用這個配置文件。例如:在logstash安裝目錄下創建一個“基本配置”測試文件logstash-test.conf,文件內容如下:
1
2
3
4
5#?cat?logstash-simple.conf
input?{?stdin?{?}?}
output?{
stdout?{?codec=>?rubydebug?}
}
Logstash使用input和output定義收集日志時的輸入和輸出的相關配置,本例中input定義了一個叫"stdin"的input,output定義一個叫"stdout"的output。無論我們輸入什么字符,Logstash都會按照某種格式來返回我們輸入的字符,其中output被定義為"stdout"并使用了codec參數來指定logstash輸出格式。
使用logstash的-f參數來讀取配置文件,執行如下開始進行測試:
1
2
3
4
5
6
7
8
9
10
11#?echo?"`date`??hello?World"
Thu?Jul?16?04:06:48?CST?2015?hello?World
#?/usr/local/logstash-1.5.2/bin/logstash?agent?-f?logstash-simple.conf
Logstash?startup?completed
Tue?Jul?14?18:07:07?EDT?2015?hello?World???#該行是執行echo?“`date`hello?World”?后輸出的結果,直接粘貼到該位置
{
"message"?=>?"Tue?Jul?14?18:07:07?EDT?2015?helloWorld",
"@version"?=>?"1",
"@timestamp"?=>?"2015-07-14T22:07:28.284Z",
"host"?=>?"noc.vfast.com"
}
(3)安裝Elasticsearch
下載Elasticsearch后,解壓到對應的目錄就完成Elasticsearch的安裝。
1
#?tar?-zxf?elasticsearch-1.6.0.tar.gz?-C?/usr/local/
啟動Elasticsearch
1
#?/usr/local/elasticsearch-1.6.0/bin/elasticsearch
如果使用遠程連接的Linux的方式并想后臺運行elasticsearch執行如下命令:
1
#?nohup?/usr/local/elasticsearch-1.6.0/bin/elasticsearch?>nohup?&
確認elasticsearch的9200端口已監聽,說明elasticsearch已成功運行
1
2#?netstat?-anp?|grep?:9200
tcp????????0??????0?:::9200?????????????????????:::*????????????????????????LISTEN??????3362/java
接下來我們在logstash安裝目錄下創建一個用于測試logstash使用elasticsearch作為logstash的后端的測試文件logstash-es-simple.conf,該文件中定義了stdout和elasticsearch作為output,這樣的“多重輸出”即保證輸出結果顯示到屏幕上,同時也輸出到elastisearch中。
1
2
3
4
5
6#?cat?logstash-es-simple.conf
input?{?stdin?{?}?}
output?{
elasticsearch?{host?=>?"localhost"?}
stdout?{?codec=>?rubydebug?}
}
執行如下命令
1
2
3
4
5
6
7
8
9
10#?/usr/local/logstash-1.5.2/bin/logstash?agent?-f?logstash-es-simple.conf
…?…
Logstash?startup?completed
hello?logstash
{
"message"?=>?"hello?logstash",
"@version"?=>?"1",
"@timestamp"?=>?"2015-07-15T18:12:00.450Z",
"host"?=>?"noc.vfast.com"
}
我們可以使用curl命令發送請求來查看ES是否接收到了數據:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22#?curl?'http://localhost:9200/_search?pretty'
返回結果
{
"took":?58,
"timed_out"?:?false,
"_shards"?:?{
"total"?:?5,
"successful"?:?5,
"failed"?:?0
},
"hits":?{
"total"?:?1,
"max_score"?:?1.0,
"hits"?:?[?{
"_index"?:?"logstash-2015.07.15",
"_type"?:?"logs",
"_id"?:?"AU6TWiixxDXYhySMyTkP",
"_score"?:?1.0,
"_source":{"message":"hellologstash","@version":"1","@timestamp":"2015-07-15T20:13:55.199Z","host":"noc.vfast.com"}
}?]
}
}
至此,你已經成功利用Elasticsearch和Logstash來收集日志數據了。
(4)安裝elasticsearch插件
Elasticsearch-kopf插件可以查詢Elasticsearch中的數據,安裝elasticsearch-kopf,只要在你安裝Elasticsearch的目錄中執行以下命令即可:
1
2#?cd?/usr/local/elasticsearch-1.6.0/
#?./plugin?-install?lmenezes/elasticsearch-kopf
安裝完成后在plugins目錄下可以看到kopf
1
2#?ls?plugins/
kopf
在瀏覽器訪問http://10.1.1.188:9200/_plugin/kopf瀏覽保存在Elasticsearch中的數據,如下所示:
(5)安裝Kibana
下載kibana后,解壓到對應的目錄就完成kibana的安裝
1
#?tar?-zxf?kibana-4.1.1-linux-x64.tar.gz?-C?/usr/local/
啟動kibana
1
#?/usr/local/kibana-4.1.1-linux-x64/bin/kibana
使用http://kibanaServerIP:5601訪問Kibana,登錄后,首先,配置一個索引,默認,Kibana的數據被指向Elasticsearch,使用默認的logstash-*的索引名稱,并且是基于時間的,點擊“Create”即可。
看到如下界面說明索引創建完成。
點擊“Discover”,可以搜索和瀏覽Elasticsearch中的數據,默認搜索的是最近15分鐘的數據。可以自定義選擇時間。
到此,說明你的ELK平臺安裝部署完成。
(6)配置logstash作為Indexer
將logstash配置為索引器,并將logstash的日志數據存儲到Elasticsearch,本范例主要是索引本地系統日志。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16#?cat?/usr/local/logstash-1.5.2/logstash-indexer.conf
input?{
file?{
type?=>"syslog"
path?=>?["/var/log/messages",?"/var/log/syslog"?]
}
syslog?{
type?=>"syslog"
port?=>"5544"
}
}
output?{
stdout?{?codec=>?rubydebug?}
elasticsearch?{host?=>?"localhost"?}
}
#?/usr/local/logstash-1.5.2/bin/logstash?-flogstash-indexer.conf
使用echo命令模擬寫入日志,命令執行后看到如下圖的信息
1
#?echo?"`date`?優衣庫視頻"?>>/var/log/messages
刷新kibana,發現最新的測試數據顯示到瀏覽器中,如下圖所示:
到此,ELK平臺部署和基本的測試已完成。