基礎環境
- Java8或更高版本
- Linux、Mac OSX或者其它類Unix操作系統,目前不支持Windows操系統
- 8GB內存(內存越高越高)
- 2核虛擬CPU
外部依賴
- 深度存儲(Deep Storage),比如HDFS、S3等
- 元數據存儲(Metadata Storage),比如Mysql、PostgreSQL
- Zookeeper,用于管理集群狀態
對于單機安裝,深度存儲和元數據存儲都會放在本地${DRUID_HOME}/var目錄下。
單機實驗安裝
單機安裝Druid適用于本地測試與學習,需要注意Druid目前只支持類Unix系統,所以本地機器應該是Mac OS或Linux系統。
安裝Zookeeper
Druid依賴ZK進行集群管理,所以需要先安裝Zookeeper。我們可以在本地安裝一個節點的ZK,來支持Druid。
Zookeeper下載
Zookeeper下載地址:https://www.apache.org/dyn/closer.cgi/zookeeper/
#下載ZK
wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz
#解壓縮
tar -zxvf zookeeper-3.4.10.tar.gz
cd zookeeper-3.4.10
Zookeeper啟動
#將ZK提供的事例配置修改為正式配置
cp conf/zoo_sample.cfg conf/zoo.cfg
#啟動ZK服務
./bin/zkServer.sh start
通過上面的步驟,ZK單機版本已經簡單安裝完成了。我們可以通過jps看到ZK線程QuorumPeerMain。
安裝Druid
接下來就是Druid的安裝,Druid目前release版本為0.12.3。
Druid下載
#下載Druid
curl -O http://static.druid.io/artifacts/releases/druid-0.12.3-bin.tar.gz
#解壓縮
tar -zxvf druid-0.12.3-bin.tar.gz
cd druid-0.12.3
ls -l
可以看到Druid安裝包目錄結構:
文件/目錄 | 內容 |
---|---|
LICENSE | 許可文件 |
NOTICE | 公告文件 |
bin/* | 運行相關組件的腳本文件 |
conf/* | 生產環境配置文件 |
conf-quickstart/* | 單機測試部署配置文件 |
extensions/* | 第三方擴展軟件包 |
hadoop-dependencies/* | Hadoop相關依賴 |
lib/* | Druid所有核心軟件包 |
quickstart/* | 單機測試部署用到的文件 |
Druid啟動
初始化Druid,執行該命令后會自動創建log和var目錄。var目錄存儲了集群所有狀態信息,比如集群元數據、segment等。
bin/init
接下在打開五個命令行終端,在druid-0.12.3目錄中分為執行以下命令來啟動所有服務。
java `cat conf-quickstart/druid/historical/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/historical:lib/*" io.druid.cli.Main server historical
java `cat conf-quickstart/druid/broker/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/broker:lib/*" io.druid.cli.Main server broker
java `cat conf-quickstart/druid/coordinator/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/coordinator:lib/*" io.druid.cli.Main server coordinator
java `cat conf-quickstart/druid/overlord/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/overlord:lib/*" io.druid.cli.Main server overlord
java `cat conf-quickstart/druid/middleManager/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/middleManager:lib/*" io.druid.cli.Main server middleManager
啟動完成后,可以通過WEB查看服務是否啟動成功。
http://localhost:8081
http://localhost:8090
批量攝入數據
Druid在quickstart目錄提供了一些測試數據,我們可以將這些數據批量導入到我們搭建的Druid系統上。quickstart/wikiticker-index.json描述了攝入規范,它會讀取quickstart/wikiticker-2015-09-12-sampled.json.gz數據攝入到Druid。
#向overload服務發送攝入數據task
$curl -X 'POST' -H 'Content-Type:application/json' -d @quickstart/wikiticker-index.json http://localhost:8090/druid/indexer/v1/task
#Overload響應請求,并返回任務id
{"task":"index_hadoop_wikiticker_2018-11-13T08:53:23.313Z"}
通過overload控制臺(http://localhost:8090/console.html)可以看到攝入任務已經執行成功。
攝入任務執行完成后,攝入數據會加載到Historical節點,并且在一到兩分鐘之后就可以查詢。我們可以通過Coordinator控制臺(http://localhost:8081)查看數據加載流程。
查詢數據
數據攝入之后,我們可以對攝入的數據進行查詢。
Druid在quickstart/wikiticker-top-pages.json中為我們準備了查詢JSON,我們可以直接調用查詢API即可:
curl -X 'POST' -H 'Content-Type:application/json' -d @quickstart/wikiticker-top-pages.json http://localhost:8082/druid/v2?pretty
查詢結果:
[ {
"timestamp" : "2015-09-12T00:46:58.771Z",
"result" : [ {
"edits" : 33,
"page" : "Wikipedia:Vandalismusmeldung"
}, {
"edits" : 28,
"page" : "User:Cyde/List of candidates for speedy deletion/Subpage"
}
...
]
重啟服務
如果我們想要重新啟動服務,并且想把之前的信息刪除,可以直接把var和log目錄刪除,然后在停止ZK后,再把/tmp/zookeeper刪除。
rm log
rm var
./bin/zkServer.sh stop
rm /tmp/zookeeper
#重新進行初始化
bin/init
參考鏈接
http://druid.io/docs/latest/tutorials/index.html
http://druid.io/docs/latest/tutorials/tutorial-kafka.html
http://druid.io/docs/latest/tutorials/tutorial-query.html