Druid翻譯五:加載流數據教程

入門

本教程介紹如何將自己的流數據加載到Druid。
在本教程中,我們假設您已經按照快速入門中所述下載了Druid和Tranquility,并將其在本機上運行。并且您不需要事先加載任何數據。
完成后,您可以通過編寫自定義數據提取規范來加載自己的數據集。

編寫數據提取規范

當使用流進行數據加載,推薦使用Stream Push方式。在本教程中使用Tranquility 通過HTTP將數據推送到Druid。

本教程將介紹如何通過HTTP將數據流推送到Druid,但Druid還支持各類批處理和流式加載方法。查看Loading filesLoading streams頁面來了解其它方法的更多消息,包括Hadoop、Kafka, Storm、Samza、Spark Streaming和您自己的JVM應用。

你可以按照需求修改conf-quickstart/tranquility/server.json配置文件,來自定義Tranquility Server配置,通過HTTP加載新的數據集。
配置文件中有幾項需要特別關注:

{
  "dataSources" : {
    "metrics" : {
      "spec" : {
        "dataSchema" : {
          //1.使用的數據集
          "dataSource" : "metrics",
          "parser" : {
            "type" : "string",
            "parseSpec" : {
              //2.哪個字段是timestamp
              "timestampSpec" : {
                "column" : "timestamp",
                "format" : "auto"
              },
              "dimensionsSpec" : {
                //3.哪些字段需要當成維度處理
                "dimensions" : [],
                "dimensionExclusions" : [
                  "timestamp",
                  "value"
                ]
              },
              "format" : "json"
            }
          },
          "granularitySpec" : {
            "type" : "uniform",
            "segmentGranularity" : "hour",
            "queryGranularity" : "none"
          },
          //4.哪些字段需要當成度量進行處理
          "metricsSpec" : [
            {
              "type" : "count",
              "name" : "count"
            },
            {
              "name" : "value_sum",
              "type" : "doubleSum",
              "fieldName" : "value"
            },
            {
              "fieldName" : "value",
              "name" : "value_min",
              "type" : "doubleMin"
            },
            {
              "type" : "doubleMax",
              "name" : "value_max",
              "fieldName" : "value"
            }
          ]
        },
        "ioConfig" : {
          "type" : "realtime"
        },
        "tuningConfig" : {
          "type" : "realtime",
          "maxRowsInMemory" : "100000",
          "intermediatePersistPeriod" : "PT10M",
          "windowPeriod" : "PT10M"
        }
      },
      "properties" : {
        "task.partitions" : "1",
        "task.replicants" : "1"
      }
    }
  },
  "properties" : {
    "zookeeper.connect" : "localhost",
    "druid.discovery.curator.path" : "/druid/discovery",
    "druid.selectors.indexing.serviceName" : "druid/overlord",
    "http.port" : "8200",
    "http.threads" : "8"
  }
}

下面用一個pageviews(瀏覽量)的json作為示例:

{"time": "2000-01-01T00:00:00Z", "url": "/foo/bar", "user": "alice", "latencyMs": 32}

所以對于這個例子上述四個問題的答案是:

  • 數據集就是pageviews
  • time字段是timestamp
  • 可以用url和user作為維度
  • 度量可以是計算pageviews計數,和latencyMs字段求和。在數據接收階段求和,也能在查詢的時候快速方便的求平均值。

所以配置文件修改后

{
  "dataSources" : {
    "metrics" : {
      "spec" : {
        "dataSchema" : {
          //1.使用的數據集
          "dataSource" : "pageviews",
          "parser" : {
            "type" : "string",
            "parseSpec" : {
              //2.哪個字段是timestamp
              "timestampSpec" : {
                "column" : "time",
                "format" : "auto"
              },
              "dimensionsSpec" : {
                //3.哪些字段需要當成維度處理
                "dimensions" : ["url", "user"],
                "dimensionExclusions" : [
                  "timestamp",
                  "value"
                ]
              },
              "format" : "json"
            }
          },
          "granularitySpec" : {
            "type" : "uniform",
            "segmentGranularity" : "hour",
            "queryGranularity" : "none"
          },
          //4.哪些字段需要當成度量進行處理
          "metricsSpec" : [
            {
              "name": "views",
              "type": "count"
            },
            {
              "name": "latencyMs", 
              "type": "doubleSum", 
              "fieldName": "latencyMs"
            }
          ]
        },
        "ioConfig" : {
          "type" : "realtime"
        },
        "tuningConfig" : {
          "type" : "realtime",
          "maxRowsInMemory" : "100000",
          "intermediatePersistPeriod" : "PT10M",
          "windowPeriod" : "PT10M"
        }
      },
      "properties" : {
        "task.partitions" : "1",
        "task.replicants" : "1"
      }
    }
  },
  "properties" : {
    "zookeeper.connect" : "localhost",
    "druid.discovery.curator.path" : "/druid/discovery",
    "druid.selectors.indexing.serviceName" : "druid/overlord",
    "http.port" : "8200",
    "http.threads" : "8"
  }
}

重啟服務

停止Tranquility(CTRL-C)并重新啟動,來獲取新的配置文件并生效。

發送數據

發送測試數據如下:

{"time": "2000-01-01T00:00:00Z", "url": "/foo/bar", "user": "alice", "latencyMs": 32}
{"time": "2000-01-01T00:00:00Z", "url": "/", "user": "bob", "latencyMs": 11}
{"time": "2000-01-01T00:00:00Z", "url": "/foo/bar", "user": "bob", "latencyMs": 45}

Druid流處理需要相對當前(準實時)的數據,相而言windowPeriod值控制的是更寬松的時間窗口(也就是流處理會檢查數據timestamp的值,而時間窗口只關注數據接收的時間)。所以需要將2000-01-01T00:00:00Z轉換為ISO8601格式的當前系統時間,你可以用以下命令轉換:

python -c 'import datetime; print(datetime.datetime.utcnow().strftime("%Y-%m-%dT%H:%M:%SZ"))'

用輸出的時間將上述的json示例的timestamps更新,并且保存到pageviews.json文件里。 通過下面命令將數據發送到Druid:

curl -XPOST -H'Content-Type: application/json' --data-binary @pageviews.json http://localhost:8200/v1/post/pageviews

然后你會看到屏幕輸出如下:

{"result":{"received":3,"sent":3}}

這表明HTTP服務接收了三條事件,并且發送了三條到Druid。因為需要分配Druid給ingestion 任務,所以初次運行可能會消耗幾秒鐘時間。但是后續查詢請求就會變得很快了。
如果你看到是"sent":0,很有可能是時間戳(timestamps)不夠新,再次更新時間戳并且重新發送。

數據查詢

數據發送后就可以馬上進行數據查詢了,詳見Druid查詢

進一步閱讀

想了解更多Druid流處理,詳見streaming ingestion documentation

原文鏈接:http://druid.io/docs/0.9.2/tutorials/tutorial-streams.html

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,501評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,673評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,610評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,939評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,668評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,004評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,001評論 3 449
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,173評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,705評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,426評論 3 359
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,656評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,139評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,833評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,247評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,580評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,371評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,621評論 2 380

推薦閱讀更多精彩內容