impala-review

Impala是Cloudera公司主導(dǎo)開(kāi)發(fā)的新型查詢(xún)系統(tǒng),它提供SQL語(yǔ)義,能查詢(xún)存儲(chǔ)在Hadoop的HDFS和HBase中的PB級(jí)大數(shù)據(jù)。已有的Hive系統(tǒng)雖然也提供了SQL語(yǔ)義,但由于Hive底層執(zhí)行使用的是MapReduce引擎,仍然是一個(gè)批處理過(guò)程,難以滿(mǎn)足查詢(xún)的交互性。相比之下,Impala的最大特點(diǎn)也是最大賣(mài)點(diǎn)就是它的快速。Impala是參照谷歌新三篇論文Impala是Cloudera在受到Google的Dremel啟發(fā)下開(kāi)發(fā)的實(shí)時(shí)交互SQL大數(shù)據(jù)查詢(xún)工具,Impala沒(méi)有再使用緩慢的 Hive+MapReduce批處理,而是通過(guò)使用與商用并行關(guān)系數(shù)據(jù)庫(kù)中類(lèi)似的分布式查詢(xún)引擎(由Query Planner、Query Coordinator和Query Exec Engine三部分組成),可以直接從HDFS或HBase中用SELECT、JOIN和統(tǒng)計(jì)函數(shù)查詢(xún)數(shù)據(jù),從而大大降低了延遲。其架構(gòu)如圖 1所示,Impala主要由Impalad, State Store和CLI組成。Dremel的開(kāi)源實(shí)現(xiàn),和Shark、Drill功能相似。Impala是Cloudera公司主導(dǎo)開(kāi)發(fā)并開(kāi)源。基于Hive并使用內(nèi)存進(jìn)行計(jì)算,兼顧數(shù)據(jù)倉(cāng)庫(kù),具有實(shí)時(shí)、批處理、多并發(fā)等優(yōu)點(diǎn)。是使用CDH的首選PB級(jí)大數(shù)據(jù)實(shí)時(shí)查詢(xún)分析引擎Impala是Cloudera在受到Google的Dremel啟發(fā)下開(kāi)發(fā)的實(shí)時(shí)交互SQL大數(shù)據(jù)查詢(xún)工具,Impala沒(méi)有再使用緩慢的 Hive+MapReduce批處理,而是通過(guò)使用與商用并行關(guān)系數(shù)據(jù)庫(kù)中類(lèi)似的分布式查詢(xún)引擎(由Query Planner、Query Coordinator和Query Exec Engine三部分組成),可以直接從HDFS或HBase中用SELECT、JOIN和統(tǒng)計(jì)函數(shù)查詢(xún)數(shù)據(jù),從而大大降低了延遲。其架構(gòu)如圖 1所示,Impala主要由Impalad, State Store和CLI組成

谷歌舊三篇論文:mapreduce(mapreduce) 、 bigtable(HBase) 、 gfs(HDFS)

谷歌新三篇論文:Dremel(Impala)、Caffeine、Pergel。

同時(shí),Impala由Cloudera公司開(kāi)發(fā),可以對(duì)存儲(chǔ)在HDFS、HBase的海量數(shù)據(jù)提供交互式查詢(xún)的SQL接口。除了和Hive使用相同的統(tǒng)一存儲(chǔ)平臺(tái),Impala還提供了一個(gè)熟悉的面向批量或?qū)崟r(shí)查詢(xún)的統(tǒng)一平臺(tái)。Impala的特點(diǎn)是查詢(xún)非常迅速,其性能大幅領(lǐng)先于Hive。

注意:Impala并沒(méi)有基于MapReduce的計(jì)算框架,這也是Impala可以大幅領(lǐng)先Hive的原因,Impala是定位是OLAP。

Impala是Cloudera在受到Google的Dremel啟發(fā)下開(kāi)發(fā)的實(shí)時(shí)交互SQL大數(shù)據(jù)查詢(xún)工具,Impala沒(méi)有再使用緩慢的 Hive+MapReduce批處理,而是通過(guò)使用與商用并行關(guān)系數(shù)據(jù)庫(kù)中類(lèi)似的分布式查詢(xún)引擎(由Query Planner、Query Coordinator和Query Exec Engine三部分組成),可以直接從HDFS或HBase中用SELECT、JOIN和統(tǒng)計(jì)函數(shù)查詢(xún)數(shù)據(jù),從而大大降低了延遲。其架構(gòu)如圖 1所示,Impala主要由Impalad, State Store和CLI組成

Impalad: 與DataNode運(yùn)行在同一節(jié)點(diǎn)上,由Impalad進(jìn)程表示,它接收客戶(hù)端的查詢(xún)請(qǐng)求(接收查詢(xún)請(qǐng)求的Impalad為 Coordinator,Coordinator通過(guò)JNI調(diào)用java前端解釋SQL查詢(xún)語(yǔ)句,生成查詢(xún)計(jì)劃樹(shù),再通過(guò)調(diào)度器把執(zhí)行計(jì)劃分發(fā)給具有相應(yīng) 數(shù)據(jù)的其它Impalad進(jìn)行執(zhí)行),讀寫(xiě)數(shù)據(jù),并行執(zhí)行查詢(xún),并把結(jié)果通過(guò)網(wǎng)絡(luò)流式的傳送回給Coordinator,由Coordinator返回給 客戶(hù)端。同時(shí)Impalad也與State Store保持連接,用于確定哪個(gè)Impalad是健康和可以接受新的工作。在Impalad中啟動(dòng)三個(gè)ThriftServer: beeswax_server(連接客戶(hù)端),hs2_server(借用Hive元數(shù)據(jù)), be_server(Impalad內(nèi)部使用)和一個(gè)ImpalaServer服務(wù)。

Impala State Store: 跟蹤集群中的Impalad的健康狀態(tài)及位置信息,由statestored進(jìn)程表示,它通過(guò)創(chuàng)建多個(gè)線程來(lái)處理Impalad的注冊(cè)訂閱和與各 Impalad保持心跳連接,各Impalad都會(huì)緩存一份State Store中的信息,當(dāng)State Store離線后(Impalad發(fā)現(xiàn)State Store處于離線時(shí),會(huì)進(jìn)入recovery模式,反復(fù)注冊(cè),當(dāng)State Store重新加入集群后,自動(dòng)恢復(fù)正常,更新緩存數(shù)據(jù))因?yàn)镮mpalad有State Store的緩存仍然可以工作,但會(huì)因?yàn)橛行㊣mpalad失效了,而已緩存數(shù)據(jù)無(wú)法更新,導(dǎo)致把執(zhí)行計(jì)劃分配給了失效的Impalad,導(dǎo)致查詢(xún)失敗。

CLI: 提供給用戶(hù)查詢(xún)使用的命令行工具(Impala Shell使用python實(shí)現(xiàn)),同時(shí)Impala還提供了Hue,JDBC, ODBC使用接口。

Impala三大進(jìn)程由Impalad,statestored,catalogd

Impala和Hive的關(guān)系

Impala是基于Hive的大數(shù)據(jù)實(shí)時(shí)分析查詢(xún)引擎直接使用Hive的元數(shù)據(jù)庫(kù)Metadata,意味著impala元數(shù)據(jù)都存儲(chǔ)在Hive的metastore中。并且impala兼容Hive的sql解析,實(shí)現(xiàn)了Hive的SQL語(yǔ)義的子集,功能還在不斷的完善中。

與Hive的關(guān)系

Impala 與Hive都是構(gòu)建在Hadoop之上的數(shù)據(jù)查詢(xún)工具各有不同的側(cè)重適應(yīng)面,但從客戶(hù)端使用來(lái)看Impala與Hive有很多的共同之處,如數(shù)據(jù)表元數(shù) 據(jù)、ODBC/JDBC驅(qū)動(dòng)、SQL語(yǔ)法、靈活的文件格式、存儲(chǔ)資源池等Impala與Hive在Hadoop中的關(guān)系如下圖所示。Hive適合于長(zhǎng)時(shí)間的批處理查詢(xún)分析而Impala適合于實(shí)時(shí)交互式SQL查詢(xún),Impala給數(shù)據(jù)分析人員提供了快速實(shí)驗(yàn)、驗(yàn)證想法的大數(shù) 據(jù)分析工具。可以先使用hive進(jìn)行數(shù)據(jù)轉(zhuǎn)換處理,之后使用Impala在Hive處理后的結(jié)果數(shù)據(jù)集上進(jìn)行快速的數(shù)據(jù)分析。

Impala相對(duì)于Hive所使用的優(yōu)化技術(shù)

1、沒(méi)有使用

MapReduce進(jìn)行并行計(jì)算,雖然MapReduce是非常好的并行計(jì)算框架,但它更多的面向批處理模式,而不是面向交互式的SQL執(zhí)行。與MapReduce相比:Impala把整個(gè)查詢(xún)分成一執(zhí)行計(jì)劃樹(shù),而不是一連串的MapReduce任務(wù),在分發(fā)執(zhí)行計(jì)劃后,Impala使用拉式獲取數(shù)據(jù)的方式獲取結(jié)果把結(jié)果數(shù)據(jù)組成按執(zhí)行樹(shù)流式傳遞匯集,減少了 把中間結(jié)果寫(xiě)入磁盤(pán)的步驟,再?gòu)拇疟P(pán)讀取數(shù)據(jù) 的開(kāi)銷(xiāo)。Impala使用服務(wù)的方式避免每次執(zhí)行查詢(xún)都需要啟動(dòng)的開(kāi)銷(xiāo),即相比Hive沒(méi)了MapReduce啟動(dòng)時(shí)間。(MapReduce啟動(dòng)時(shí)間指的是什么?)

2、使用LLVM產(chǎn)生運(yùn)行代碼,針對(duì)特定查詢(xún)生成特定代碼,同時(shí)使用Inline的方式減少函數(shù)調(diào)用的開(kāi)銷(xiāo),加快執(zhí)行效率。

3、充分利用可用的硬件指令(SSE4.2)。

4、更好的IO調(diào)度,Impala知道數(shù)據(jù)塊所在的磁盤(pán)位置能夠更好的利用多磁盤(pán)的優(yōu)勢(shì)(data locality -- 基本DataNode節(jié)點(diǎn)安裝了Imapla Daemon),同時(shí)Impala支持直接數(shù)據(jù)塊讀取和本地代碼計(jì)算checksum。

5、通過(guò)選擇合適的數(shù)據(jù)存儲(chǔ)格式可以得到最好的性能(Impala支持多種存儲(chǔ)格式)。

6、最大使用內(nèi)存,中間結(jié)果不寫(xiě)磁盤(pán),及時(shí)通過(guò)網(wǎng)絡(luò)以stream的方式傳遞。

Impala與Hive的異同

數(shù)據(jù)存儲(chǔ):使用相同的存儲(chǔ)數(shù)據(jù)池都支持把數(shù)據(jù)存儲(chǔ)于HDFS, HBase。

元數(shù)據(jù):兩者使用相同的元數(shù)據(jù)。

SQL解釋處理:比較相似都是通過(guò)詞法分析生成執(zhí)行計(jì)劃。

執(zhí)行計(jì)劃

Hive: 依賴(lài)于MapReduce執(zhí)行框架,執(zhí)行計(jì)劃分成map->shuffle->reduce->map->shuffle->reduce…的模型。如果一個(gè)Query會(huì)被編譯成多輪MapReduce,則會(huì)有更多的寫(xiě)中間結(jié)果。由于MapReduce執(zhí)行框架本身的特點(diǎn),過(guò)多的中間過(guò)程會(huì)增加整個(gè)Query的執(zhí)行時(shí)間。

Impala:把執(zhí)行計(jì)劃表現(xiàn)為一棵完整的執(zhí)行計(jì)劃樹(shù),可以更自然地分發(fā)執(zhí)行計(jì)劃到各個(gè)Impalad執(zhí)行查詢(xún)(Impala查詢(xún)計(jì)劃解析器使用更智能的算法在多節(jié)點(diǎn)上分布式執(zhí)行各個(gè)查詢(xún)步驟),而不用像Hive那樣把它組合成管道型的map->reduce模式,以此保證Impala有更好的并發(fā)性和避免不必要的中間sort與shuffle。

數(shù)據(jù)流

Hive: 采用的方式,每一個(gè)計(jì)算節(jié)點(diǎn)計(jì)算完成后將數(shù)據(jù)主動(dòng)推給后續(xù)節(jié)點(diǎn)。

Impala: 采用的方式,后續(xù)節(jié)點(diǎn)通過(guò)getNext主動(dòng)向前面節(jié)點(diǎn)要數(shù)據(jù),以此方式數(shù)據(jù)可以流式的返回給客戶(hù)端,且只要有1條數(shù)據(jù)被處理完,就可以立即展現(xiàn)出來(lái),而不用等到全部處理完成,更符合SQL交互式查詢(xún)使用

內(nèi)存使用

Hive: 在執(zhí)行過(guò)程中如果內(nèi)存放不下所有數(shù)據(jù),則會(huì)使用外存,以保證Query能順序執(zhí)行完。每一輪MapReduce結(jié)束,中間結(jié)果也會(huì)寫(xiě)入HDFS中,同樣由于MapReduce執(zhí)行架構(gòu)的特性,shuffle過(guò)程也會(huì)有寫(xiě)本地磁盤(pán)的操作

Impala:在遇到內(nèi)存放不下數(shù)據(jù)時(shí),當(dāng)前版本1.0.1是直接返回錯(cuò)誤,而不會(huì)利用外存,以后版本應(yīng)該會(huì)進(jìn)行改進(jìn)。這使用得Impala目前處理Query會(huì)受到一定的限制,最好還是與Hive配合使用。Impala在多個(gè)階段之間利用網(wǎng)絡(luò)傳輸數(shù)據(jù),在執(zhí)行過(guò)程不會(huì)有寫(xiě)磁盤(pán)的操作(insert除外)。

調(diào)度

Hive: 任務(wù)調(diào)度依賴(lài)于Hadoop的調(diào)度策略。(MR2 / Yarn)

Impala:調(diào)度由自己完成,目前只有一種調(diào)度器simple-schedule,它會(huì)盡量滿(mǎn)足數(shù)據(jù)的局部性,掃描數(shù)據(jù)的進(jìn)程盡量靠近數(shù)據(jù)本身所在的物理機(jī)器。(impala 守護(hù)進(jìn)程基本都會(huì)安裝在DataNode節(jié)點(diǎn))調(diào)度器目前還比較簡(jiǎn)單,在SimpleScheduler::GetBackend中可以看到,現(xiàn)在還沒(méi)有考慮負(fù)載,網(wǎng)絡(luò)IO狀況等因素進(jìn)行調(diào)度。但目前Impala已經(jīng)有對(duì)執(zhí)行過(guò)程的性能統(tǒng)計(jì)分析,應(yīng)該以后版本會(huì)利用這些統(tǒng)計(jì)信息進(jìn)行調(diào)度吧。

容錯(cuò)

Hive: 依賴(lài)于Hadoop的容錯(cuò)能力。

Impala:在查詢(xún)過(guò)程中,沒(méi)有容錯(cuò)邏輯,如果在執(zhí)行過(guò)程中發(fā)生故障,則直接返回錯(cuò)誤(這與Impala的設(shè)計(jì)有關(guān),因?yàn)镮mpala定位于實(shí)時(shí)查詢(xún),一次查詢(xún)失敗,再查一次就好了,再查一次的成本很低)。但從整體來(lái)看,Impala是能很好的容錯(cuò),所有的Impalad是對(duì)等的結(jié)構(gòu),用戶(hù)可以向任何一個(gè)Impalad提交查詢(xún),如果一個(gè)Impalad失效,其上正在運(yùn)行的所有Query都將失敗,但用戶(hù)可以重新提交查詢(xún)由其它Impalad代替執(zhí)行,不會(huì)影響服務(wù)。對(duì)于State Store目前只有一個(gè),但當(dāng)State Store失效,也不會(huì)影響服務(wù),每個(gè)Impalad都緩存了StateStore的信息,只是不能再更新集群狀態(tài),有可能會(huì)把執(zhí)行任務(wù)分配給已經(jīng)失效的Impalad執(zhí)行,導(dǎo)致本次Query失敗。

適用面

Hive: 復(fù)雜的批處理查詢(xún)?nèi)蝿?wù),數(shù)據(jù)轉(zhuǎn)換任務(wù)。

Impala:實(shí)時(shí)數(shù)據(jù)分析,因?yàn)椴恢С諹DF,能處理的問(wèn)題域有一定的限制,與Hive配合使用,對(duì)Hive的結(jié)果數(shù)據(jù)集進(jìn)行實(shí)時(shí)分析。

Impala 與Hive都是構(gòu)建在Hadoop之上的數(shù)據(jù)查詢(xún)工具,但是各有不同側(cè)重,那么我們為什么要同時(shí)使用這兩個(gè)工具呢?單獨(dú)使用Hive或者Impala不可以嗎?

一、介紹Impala和Hive

(1)Impala和Hive都是提供對(duì)HDFS/Hbase數(shù)據(jù)進(jìn)行SQL查詢(xún)的工具,Hive會(huì)轉(zhuǎn)換成MapReduce,借助于YARN進(jìn)行調(diào)度從而實(shí)現(xiàn)對(duì)HDFS的數(shù)據(jù)的訪問(wèn),而Impala直接對(duì)HDFS進(jìn)行數(shù)據(jù)查詢(xún)。但是他們都是提供如下的標(biāo)準(zhǔn)SQL語(yǔ)句,在機(jī)身里運(yùn)行。

(2)Apache Hive是MapReduce的高級(jí)抽象,使用HiveQL,Hive可以生成運(yùn)行在Hadoop集群的MapReduce或Spark作業(yè)。Hive最初由Facebook大約在2007年開(kāi)發(fā),現(xiàn)在是Apache的開(kāi)源項(xiàng)目。

Apache Impala是高性能的專(zhuān)用SQL引擎使用Impala SQL,因?yàn)镮mpala無(wú)需借助任何的框架,直接實(shí)現(xiàn)對(duì)數(shù)據(jù)塊的查詢(xún),所以查詢(xún)延遲毫秒級(jí)。Impala受到Google的Dremel項(xiàng)目啟發(fā),2012年由Cloudera開(kāi)發(fā),現(xiàn)在是Apache開(kāi)源項(xiàng)目。

二、Impala和Hive有什么不同?

(1)Hive有很多的特性:

1、對(duì)復(fù)雜數(shù)據(jù)類(lèi)型(比如arrays和maps)和窗口分析更廣泛的支持 2、高擴(kuò)展性 3、通常用于批處理

(2)Impala更快

1、專(zhuān)業(yè)的SQL引擎,提供了5x到50x更好的性能 2、理想的交互式查詢(xún)和數(shù)據(jù)分析工具 3、更多的特性正在添加進(jìn)來(lái)

三、高級(jí)概述:

四、為什么要使用Hive和Impala?

1、為數(shù)據(jù)分析人員帶來(lái)了海量數(shù)據(jù)分析能力,不需要軟件開(kāi)發(fā)經(jīng)驗(yàn),運(yùn)用已掌握的SQL知識(shí)進(jìn)行數(shù)據(jù)的分析。

2、比直接寫(xiě)MapReduce或Spark具有更好的生產(chǎn)力,5行HiveQL/Impala SQL等同于200行或更多的Java代碼。

3、提供了與其他系統(tǒng)良好的互操作性,比如通過(guò)Java和外部腳本擴(kuò)展,而且很多商業(yè)智能工具支持Hive和Impala。

五、Hive和Impala使用案例

(1)日志文件分析

日志是普遍的數(shù)據(jù)類(lèi)型,是當(dāng)下大數(shù)據(jù)時(shí)代重要的數(shù)據(jù)源,結(jié)構(gòu)不固定,可以通過(guò)Flume和kafka將日志采集放到HDFS,然后分析日志的結(jié)構(gòu),根據(jù)日志的分隔符去建立一個(gè)表,接下來(lái)運(yùn)用Hive和Impala 進(jìn)行數(shù)據(jù)的分析。例如:

(2)情感分析:很多組織使用Hive或Impala來(lái)分析社交媒體覆蓋情況。例如:

(3)商業(yè)智能:很多領(lǐng)先的BI工具支持Hive和Impala


優(yōu)點(diǎn):支持SQL查詢(xún),快速查詢(xún)大數(shù)據(jù)。可以對(duì)已有數(shù)據(jù)進(jìn)行查詢(xún),減少數(shù)據(jù)的加載,轉(zhuǎn)換。多種存儲(chǔ)格式可以選擇(Parquet, Text, Avro, RCFile, SequeenceFile)。可以與Hive配合使用。

缺點(diǎn):不支持用戶(hù)定義函數(shù)UDF。不支持text域的全文搜索。不支持Transforms。不支持查詢(xún)期的容錯(cuò)。對(duì)內(nèi)存要求高。

1、Impala 外部 Shell

Impala外部Shell 就是不進(jìn)入Impala內(nèi)部,直接執(zhí)行的ImpalaShell 例如通過(guò)外部Shell查看Impala幫助可以使用:$ impala-shell -h這樣就可以查看了;

再例如顯示一個(gè)SQL語(yǔ)句的執(zhí)行計(jì)劃:$ impala-shell -p select count(*) from t_stu

下面是Impala的外部Shell的一些參數(shù):

? -h (--help) 幫助

? -v (--version) 查詢(xún)版本信息

? -V (--verbose) 啟用詳細(xì)輸出

? --quiet 關(guān)閉詳細(xì)輸出

? -p 顯示執(zhí)行計(jì)劃

? -i hostname (--impalad=hostname) 指定連接主機(jī)格式hostname:port 默認(rèn)端口21000

? -r(--refresh_after_connect)刷新所有元數(shù)據(jù)

? -q query (--query=query) 從命令行執(zhí)行查詢(xún),不進(jìn)入impala-shell

? -d default_db (--database=default_db) 指定數(shù)據(jù)庫(kù)

? -B(--delimited)去格式化輸出

? --output_delimiter=character 指定分隔符

? --print_header 打印列名

? -f query_file(--query_file=query_file)執(zhí)行查詢(xún)文件,以分號(hào)分隔

? -o filename (--output_file filename) 結(jié)果輸出到指定文件

??-c 查詢(xún)執(zhí)行失敗時(shí)繼續(xù)執(zhí)行

? -k (--kerberos) 使用kerberos安全加密方式運(yùn)行impala-shell

? -l 啟用LDAP認(rèn)證

? -u 啟用LDAP時(shí),指定用戶(hù)名

2、Impala內(nèi)部Shell

使用命令$ impala-sehll可以進(jìn)入impala,在這里可以像Hive一樣正常使用SQL,而且還有一些內(nèi)部的impala命令:

? help

? connect 連接主機(jī),默認(rèn)端口21000

? refresh 增量刷新元數(shù)據(jù)庫(kù)

? invalidate metadata 全量刷新元數(shù)據(jù)庫(kù)

? explain 顯示查詢(xún)執(zhí)行計(jì)劃、步驟信息

? set explain_level 設(shè)置顯示級(jí)別(0,1,2,3)

? shell 不退出impala-shell執(zhí)行Linux命令

? profile (查詢(xún)完成后執(zhí)行) 查詢(xún)最近一次查詢(xún)的底層信息

例:查看幫助可以直接使用:help,要刷新一個(gè)表的增量元數(shù)據(jù)可以使用refresh t_stu;



hive的元數(shù)據(jù)存儲(chǔ)在/user/hadoop/warehouse

Impala的內(nèi)部表也在/user/hadoop/warehouse。

那兩者怎么區(qū)分,看前面的第一列。

下面是Impala對(duì)文件的格式及壓縮類(lèi)型的支持

? 添加分區(qū)方式

– 1、partitioned by 創(chuàng)建表時(shí),添加該字段指定分區(qū)列表

– 2、使用alter table 進(jìn)行分區(qū)的添加和刪除操作

create table t_person(idint, namestring, ageint) partitioned by (typestring);

alter table t_person add partition (sex=‘man');alter table t_person drop partition (sex=‘man');alter table t_person drop partition (sex=‘man‘,type=‘boss’);

? 分區(qū)內(nèi)添加數(shù)據(jù)

insert into t_person partition (type='boss') values (1,’zhangsan’,18),(2,’lisi’,23)

insert into t_person partition (type='coder') values(3,wangwu’,22),(4,’zhaoliu’,28),(5,’tianqi’,24)

? 查詢(xún)指定分區(qū)數(shù)據(jù)

selectid,namefromt_personwheretype=‘coder

進(jìn)行數(shù)據(jù)分區(qū)將會(huì)極大的提高數(shù)據(jù)查詢(xún)的效率,尤其是對(duì)于當(dāng)下大數(shù)據(jù)的運(yùn)用,是一門(mén)不可或缺的知識(shí)。那數(shù)據(jù)怎么創(chuàng)建分區(qū)呢?數(shù)據(jù)怎樣加載到分區(qū)

一、??Impala/Hive按State分區(qū)Accounts

(1)示例:accounts是非分區(qū)表

通過(guò)以上方式創(chuàng)建的話(huà),數(shù)據(jù)就存放在accounts目錄里面。那么,如果Loudacre大部分對(duì)customer表的分析是按state來(lái)完成的?比如:

這種情況下如果數(shù)據(jù)量很大,為了避免全表掃描的發(fā)生,我們可以去創(chuàng)建分區(qū)。如果不創(chuàng)建分區(qū)的話(huà),它會(huì)默認(rèn)所有查詢(xún)不得不掃描目錄的所有文件。創(chuàng)建分區(qū)按state將數(shù)據(jù)存儲(chǔ)到不同的子目錄,當(dāng)按照“NY”的條件進(jìn)行查詢(xún)的時(shí)候,它只會(huì)掃描到子目錄,下面我具體來(lái)看一下分區(qū)創(chuàng)建。

二、分區(qū)創(chuàng)建

(1)使用PARTITIONED BY來(lái)創(chuàng)建分區(qū)表

在這里注意state是被刪除掉的,因?yàn)樗鳛榉謪^(qū)字段,我們知道分區(qū)數(shù)據(jù)是不會(huì)出現(xiàn)在實(shí)際的文件當(dāng)中的,所以state作為分區(qū)字段是不會(huì)出現(xiàn)在列當(dāng)中的。換句話(huà)說(shuō),分區(qū)鍵就是一個(gè)虛列,它是不會(huì)存在列當(dāng)中的。那么,如何去查看我們分區(qū)的列呢?它會(huì)出現(xiàn)在我們的結(jié)構(gòu)當(dāng)中嗎?會(huì)的。

三、查看分區(qū)列

使用DESCRIBE顯示分區(qū)列,它會(huì)出現(xiàn)在結(jié)構(gòu)最后一列,它是一個(gè)虛列,并不是真實(shí)在數(shù)據(jù)中存在的列。

我們創(chuàng)建單個(gè)分區(qū),但有時(shí)候會(huì)有嵌套分區(qū),如何來(lái)處理呢?

四、創(chuàng)建嵌套分區(qū):

創(chuàng)建好了分區(qū),我們?cè)趺醇虞d數(shù)據(jù)到分區(qū)呢?有兩種方式動(dòng)態(tài)分區(qū)和靜態(tài)分區(qū)。動(dòng)態(tài)分區(qū)是指Impala/Hive在加載的時(shí)候自動(dòng)添加新的分區(qū),數(shù)據(jù)基于列值存儲(chǔ)到正確的分區(qū)(子目錄)。而靜態(tài)分區(qū)需要我們通過(guò)ADD PARTITION提前去定義分區(qū)的名稱(chēng),當(dāng)加載數(shù)據(jù)的時(shí)候,指定存儲(chǔ)數(shù)據(jù)到哪個(gè)分區(qū)


? 注意:

– 1)不能向impala的視圖進(jìn)行插入操作

– 2)insert 表可以來(lái)自視圖

? 數(shù)據(jù)文件處理

– 加載數(shù)據(jù):

? 1、insert語(yǔ)句:插入數(shù)據(jù)時(shí)每條數(shù)據(jù)產(chǎn)生一個(gè)數(shù)據(jù)文件,不建議用此方式加載批量數(shù)據(jù)

? 2、load data方式:再進(jìn)行批量插入時(shí)使用這種方式比較合適

? 3、來(lái)自中間表:此種方式使用于從一個(gè)小文件較多的大表中讀取文件并寫(xiě)入新的表生產(chǎn)少量的數(shù)據(jù)文件。也可以通過(guò)此種方式進(jìn)行格式轉(zhuǎn)換。

– 空值處理:? impala將“\n”表示為NULL,在結(jié)合sqoop使用是注意做相應(yīng)的空字段過(guò)濾,? 也可以使用以下方式進(jìn)行處理:alter table name set tblproperties(“serialization.null.format”=“null”)


--指定存儲(chǔ)方式:

create table t_person2(id int,name string)row format delimited fields terminated by ‘\0’ (impala1.3.1版本以上支持‘\0’ ) storedastextfile;--其他方式創(chuàng)建內(nèi)部表--使用現(xiàn)有表結(jié)構(gòu):create table tab_3 like tab_1;

--指定文本表字段分隔符:alter table tab_3setserdeproperties(‘serialization.format’=‘,’,’field.delim’=‘,’);

--插入數(shù)據(jù)--直接插入值方式:insert into t_person values (1,hex(‘hello world’));

--從其他表插入數(shù)據(jù):insert (overwrite) into tab_3select*form tab_2 ;

-批量導(dǎo)入文件方式方式:load data local inpath ‘/xxx/xxx’ into table tab_1;

--創(chuàng)建表(外部表)--默認(rèn)方式創(chuàng)建表:create external table tab_p1(id int,name string) location ‘/user/xxx.txt’

--指定存儲(chǔ)方式:create external table tab_p2 like parquet_tab ‘/user/xxx/xxx/1.dat’ partition (yearint, month tinyint, day tinyint) location ‘/user/xxx/xxx’ storedasparquet;

--視圖--創(chuàng)建視圖: create view v1asselectcount(id)astotalfromtab_3 ;--查詢(xún)視圖:select*fromv1;--查看視圖定義:describe formatted v1


數(shù)據(jù)文件處理:加載數(shù)據(jù):1/ insert語(yǔ)句 插入語(yǔ)句時(shí)每條數(shù)據(jù)產(chǎn)生一個(gè)數(shù)據(jù)文件 不建議使用此方式加載批量數(shù)據(jù)

2/ load data方式:在進(jìn)行批量插入時(shí)使用這種方式比較合適

3/? 來(lái)自中間表:此種方式使用于從一個(gè)小文件較多的大表中讀取文件并寫(xiě)入新表產(chǎn)生少量的數(shù)據(jù)文件

空值處理:impala將"\n"表示為null 結(jié)合sqoop使用時(shí)注意做相應(yīng)的空字段過(guò)濾

使用以下方式進(jìn)行處理:alter table name set tblproperties("serialization.null.format"="null");

Impala可以通過(guò)Hive外部表方式和HBase進(jìn)行整合,步驟如下:

? 步驟1:創(chuàng)建hbase 表,向表中添加數(shù)據(jù)

create 'test_info', 'info'

put 'test_info','1','info:name','zhangsan’

put 'test_info','2','info:name','lisi'

步驟2:創(chuàng)建hive表

CREATE EXTERNAL TABLE test_info(key string,name string )

ROW FORMAT SERDE 'org.apache.hadoop.hive.hbase.HBaseSerDe'

STORED by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

WITH SERDEPROPERTIES ("hbase.columns.mapping"=":key,info:name")

TBLPROPERTIES

("hbase.table.name" = "test_info");

步驟3:刷新Impala表

invalidate metadata

impala jdbc 訪問(wèn):

? 配置:

– impala.driver=org.apache.hive.jdbc.HiveDriver

– impala.url=jdbc:hive2://node2:21050/;auth=noSasl

– impala.username=

– impala.password=

? 盡量使用PreparedStatement執(zhí)行SQL語(yǔ)句:

– 1.性能上PreparedStatement要好于Statement

– 2.Statement存在查詢(xún)不出數(shù)據(jù)的情況

性能優(yōu)化:

要點(diǎn):

? 1、SQL優(yōu)化,使用之前調(diào)用執(zhí)行計(jì)劃

? 2、選擇合適的文件格式進(jìn)行存儲(chǔ)

? 3、避免產(chǎn)生很多小文件(如果有其他程序產(chǎn)生的小文件,可以使用中間表)

? 4、使用合適的分區(qū)技術(shù),根據(jù)分區(qū)粒度測(cè)算

? 5、使用compute stats進(jìn)行表信息搜集

? 6、網(wǎng)絡(luò)io的優(yōu)化:– a.避免把整個(gè)數(shù)據(jù)發(fā)送到客戶(hù)端

– b.盡可能的做條件過(guò)濾

– c.使用limit字句

– d.輸出文件時(shí),避免使用美化輸出

? 7、使用profile輸出底層信息計(jì)劃,在做相應(yīng)環(huán)境優(yōu)化

? 8、如果是刷新表的新增元數(shù)據(jù)要使用refresh 表名 來(lái)刷新,不要使用impala-shell -r 或? invalidate metadata

? 9、如果執(zhí)行SQL的結(jié)果內(nèi)容較多的話(huà)可以使用 impala-shell -B 將一些不必要的樣式輸出去掉

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容