業務背景:由于需要將ngix日志過濾出來的1億+條用戶行為記錄存入Hbase數據庫,以此根據一定的條件來提供近實時查詢,比如根據用戶id及一定的時間段等條件來過濾符合要求的若干行為記錄,滿足這一場景的技術包括:Solr,Elasticsearch,hbase等,在此選用了Hbase來實踐。step 1 hbase建表后直接寫入 :
直接hbase建表,然后讀取記錄文件逐條寫入Hbase。由于hbase實際的寫入速度遠遠小于我的提交速度,在寫入了1700條記錄后,hbase出現了宕機,提交后無響應。查看hbase日志,出現 out of memory異常。step 2 hbase預分區/優化hbase配置:
考慮在建表的時候沒有進行預分區,因此寫入的時候會存在熱點寫的問題,同時數據持續增長,需要不斷的對region進行split,實際上這一步相當消耗資源。因此對要寫入的Hbase表重新預分區。好在上一步驟中寫入的數據不多,因此直接刪除表和數據后重新建表并預分區:
create 'user_actions', {NAME =>'info', VERSIONS=>3},{SPLITS =>['130','140','160','170','180']}
設計預分區的時候需要有個預判,rowkey的范圍及在各個區間的可能分布情況,由于我這里的rowkey是組合用戶的注冊電話/時間及其他字段,因此上述的預分區,可以將記錄較好的散列在各個region上,對熱點寫有一定的減緩作用。同時,針對out of memory異常,修改hbase配置文件/conf/hbase-site.xml,將hbase的堆內存增加到3GB(條件有限,如果硬件條件好的話,可以增加到4-8GB)。繼續寫入,但是寫入速度很慢,維持在數百條/秒的樣子,同時寫入了20幾萬條后響應速度越來越慢。
step 3 批量寫入hbase:
上述問題的根源在于高頻提交小數據,導致Hbase疲于創建線程并進行資源的回收,最終甚至會出現宕機。之后,將單條put到Hbase改為一次put多條記錄到hbase,即批量提交,同時限制一秒內提交的頻次。最后順利寫入。由于hbase集群只有三臺機器(一臺master,2臺slave),進過上述優化后,寫入速度基本維持在1w-2w條/秒的水平,基本滿足需要了。
總結:在hbase涉及一次性寫入大量數據時,有幾個地方可以考慮進行優化:
(1)建表的同時進行預分區
(2)修改Hbase本身的配置(能夠優化寫入和讀取的配置項遠不止修改堆內存這一項,在此不表了)
(3)盡量使用批量寫入的方法,同樣的道理,讀取的時候,使用批量讀的方法
(4)網絡IO/磁盤IO
原創文章,轉載請注明: 轉載自data mining club
本文鏈接地址: hbase大規模數據寫入的優化歷程