hcatalog簡介和使用

Hcatalog是apache開源的對于表和底層數據管理統一服務平臺,目前最新release版本是0.5,不過需要Hive0.10支持,由于我們hive集群版本是0.9.0,所以只能降級使用hcatalog 0.4,由于hcatalog中所有的底層數據信息都是保存在hive metastore里,所以hive版本升級后schema變動或者api變動會對hacatalog產生影響,因此在hive 0.11中已經集成了了hcatalog,以后也會成為hive的一部分,而不是獨立的項目。

HCatalog底層依賴于Hive Metastore,執行過程中會創建一個HiveMetaStoreClient,通過這個instance提供的api來獲取表結構數據,如果是local metastore mode的話,會直接返回一個HiveMetaStore.HMSHandler,如果是remote mode的話(hive.metastore.local設置為false),會依據hive.metastore.uris(比如thrift://10.1.8.42:9083, thrift://10.1.8.51:9083)中設定的一串uri逐一順序建立連接。只要有一個鏈接建立就可以了,同時為了避免所有client都和第一個uri建立連接,導致負載過大,我加了點小trick,對這串uris隨機shuffle來做load balance

由于我們的集群開啟了kerberos security,需要獲取DelegationToken,但是local mode是不支持的,所以只用能remote mode

HiveMetaStoreClient.Java

```

publicString?getDelegationToken(String?owner,?String?renewerKerberosPrincipalName)throws

MetaException,?TException?{

if(localMetaStore)?{

thrownewUnsupportedOperationException("getDelegationToken()?can?be?"+

"called?only?in?thrift?(non?local)?mode");

}

returnclient.get_delegation_token(owner,?renewerKerberosPrincipalName);

}

```

HCatInputFormat和HCatOutputFormat提供一些mapreduce api來讀取表和寫入表

HCatInputFormat API:

```

publicstaticvoidsetInput(Job?job,

InputJobInfo?inputJobInfo)throwsIOException;

```

先實例化一個InputJobInfo對象,該對象包含三個參數dbname,tablename,filter,然后傳給setInput函數,來讀取相應的數據

```

publicstaticHCatSchema?getTableSchema(JobContext?context)

throwsIOException;

```

在運行時(比如mapper階段的setup函數中),可以傳進去JobContext,調用靜態getTableSchema來獲取先前setInput時設置的table schema信息

HCatOutputFormat API:

```

publicstaticvoidsetOutput(Job?job,?OutputJobInfo?outputJobInfo)throwsIOException;

```

OutPutJobInfo接受三個參數databaseName, tableName, partitionValues,其中第三個參數類型是Map,partition key放在map key里,partition value放在對應map key的value中,該參數可傳入null或空map,如果指定的partition存在的話,會拋org.apache.hcatalog.common.HCatException : 2002 : Partition already present with given partition key values

比如要要寫入指定的partition(dt='2013-06-13',country='china' ),可以這樣寫

```

Map?partitionValues?=newHashMap();

partitionValues.put("dt","2013-06-13");

partitionValues.put("country","china");

HCatTableInfo?info?=?HCatTableInfo.getOutputTableInfo(dbName,?tblName,?partitionValues);

HCatOutputFormat.setOutput(job,?info);

publicstaticHCatSchema?getTableSchema(JobContext?context)throwsIOException;

```

獲取之前HCatOutputFormat.setOutput指定的table schema信息

```

publicstaticvoidsetSchema(finalJob?job,finalHCatSchema?schema)throwsIOException;

```

設置最終寫入數據的schema信息,若不調用這個方法,則默認會使用table schema信息

下面提供一個完整mapreduce例子計算一天每個guid訪問頁面次數,map階段從表中讀取guid字段,reduce階段統計該guid對應pageview的總數,然后寫回另外一張帶有guid和count字段的表中

```

importjava.io.IOException;

importjava.util.Iterator;

importorg.apache.hadoop.conf.Configuration;

importorg.apache.hadoop.conf.Configured;

importorg.apache.hadoop.io.IntWritable;

importorg.apache.hadoop.io.Text;

importorg.apache.hadoop.io.WritableComparable;

importorg.apache.hadoop.mapreduce.Job;

importorg.apache.hadoop.mapreduce.Mapper;

importorg.apache.hadoop.mapreduce.Reducer;

importorg.apache.hadoop.util.Tool;

importorg.apache.hadoop.util.ToolRunner;

importorg.apache.hcatalog.data.DefaultHCatRecord;

importorg.apache.hcatalog.data.HCatRecord;

importorg.apache.hcatalog.data.schema.HCatSchema;

importorg.apache.hcatalog.mapreduce.HCatInputFormat;

importorg.apache.hcatalog.mapreduce.HCatOutputFormat;

importorg.apache.hcatalog.mapreduce.InputJobInfo;

importorg.apache.hcatalog.mapreduce.OutputJobInfo;

publicclassGroupByGuidextendsConfiguredimplementsTool?{

@SuppressWarnings("rawtypes")

publicstaticclassMapextends

Mapper?{

HCatSchema?schema;

Text?guid;

IntWritable?one;

@Override

protectedvoidsetup(org.apache.hadoop.mapreduce.Mapper.Context?context)

throwsIOException,?InterruptedException?{

guid?=newText();

one?=newIntWritable(1);

schema?=?HCatInputFormat.getTableSchema(context);

}

@Override

protectedvoidmap(WritableComparable?key,?HCatRecord?value,

Context?context)throwsIOException,?InterruptedException?{

guid.set(value.getString("guid",?schema));

context.write(guid,?one);

}

}

@SuppressWarnings("rawtypes")

publicstaticclassReduceextends

Reducer?{

HCatSchema?schema;

@Override

protectedvoidsetup(org.apache.hadoop.mapreduce.Reducer.Context?context)

throwsIOException,?InterruptedException?{

schema?=?HCatOutputFormat.getTableSchema(context);

}

@Override

protectedvoidreduce(Text?key,?Iterable?values,

Context?context)throwsIOException,?InterruptedException?{

intsum?=0;

Iterator?iter?=?values.iterator();

while(iter.hasNext())?{

sum++;

iter.next();

}

HCatRecord?record?=newDefaultHCatRecord(2);

record.setString("guid",?schema,?key.toString());

record.setInteger("count",?schema,?sum);

context.write(null,?record);

}

}

@Override

publicintrun(String[]?args)throwsException?{

Configuration?conf?=?getConf();

String?dbname?=?args[0];

String?inputTable?=?args[1];

String?filter?=?args[2];

String?outputTable?=?args[3];

intreduceNum?=?Integer.parseInt(args[4]);

Job?job?=newJob(conf,

"GroupByGuid,?Calculating?every?guid's?pageview");

HCatInputFormat.setInput(job,

InputJobInfo.create(dbname,?inputTable,?filter));

job.setJarByClass(GroupByGuid.class);

job.setInputFormatClass(HCatInputFormat.class);

job.setMapperClass(Map.class);

job.setReducerClass(Reduce.class);

job.setMapOutputKeyClass(Text.class);

job.setMapOutputValueClass(IntWritable.class);

job.setOutputKeyClass(WritableComparable.class);

job.setOutputValueClass(DefaultHCatRecord.class);

job.setNumReduceTasks(reduceNum);

HCatOutputFormat.setOutput(job,

OutputJobInfo.create(dbname,?outputTable,null));

HCatSchema?s?=?HCatOutputFormat.getTableSchema(job);

HCatOutputFormat.setSchema(job,?s);

job.setOutputFormatClass(HCatOutputFormat.class);

return(job.waitForCompletion(true)??0:1);

}

publicstaticvoidmain(String[]?args)throwsException?{

intexitCode?=?ToolRunner.run(newGroupByGuid(),?args);

System.exit(exitCode);

}

}

```

其實hcatalog還支持動態分區dynamic partition,我們可以在OutJobInfo中指定部分partition keyvalue pair,在運行時候根據傳進來的值設置HCatRecord對應的其他partition keyvalue pair,這樣就能在一個job中同時寫多個partition了


本文轉自?http://blog.csdn.net/lalaguozhe/article/details/9083905

作者:yukangkk

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,431評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,637評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,555評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,900評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,629評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,976評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,976評論 3 448
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,139評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,686評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,411評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,641評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,129評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,820評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,233評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,567評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,362評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,604評論 2 380

推薦閱讀更多精彩內容