hadoop distcp hftp hdfs跨集群拷貝常見問題歸總

在工作中遇到部門間數據合作,需跨不同版本集群拷貝數據,從hadoop 2.6.0-cdh5.7.0 拷貝數據到hadoop 2.7.1, 記錄所碰到的問題及解決方案。

distcp基礎用法

比如拷貝A集群(src集群)的A1目錄到B集群(dest集群)的B1目錄,

1.同版本集群拷貝(hdfs協議)

在dest集群(目標集群)運行命令:

hadoop distcp ?hdfs://10.190.11.303:3333/user/common/liming/A1/ ? ?hdfs://10.120.20.22/user/zhangsan/B1/

其中10.190.11.303是src集群的namenode地址, 3333是src集群的rpc端口(hdfs-site.xml中可查看)。10.120.20.22是dest集群的namenode IP地址

2.跨集群版本拷貝(hftp協議)

同樣在dest集群(目標集群)運行命令:

hadoop distcp hftp://10.190.11.303:50070/user/common/liming/A1/? hdfs://10.120.20.22/user/zhangsan/B1/

類似hdfs,但是目標集群的開頭要用hftp, 而且端口要變為http端口(hdfs-site.xml中可查看,如果未配置,則需要配置)。

注意:如果集群間版本跨度不大,比如hadoop 2.6.0和hadoop2.7.0則也可以使用hdfs協議。

問題一:Java.net.SocketTimeoutException: connect timed out

原因分析:日志顯示連接超時, 我們用的是hftp協議拷貝,需要連接src集群10.190.11.303 的50070端口,而此時連接超時,說明相關權限未開通。

解決辦法:聯系運維開通dest集群到src集群所有namenode 的50070端口的防火墻。如果防火墻開通了,還是出現此問題,可以修改src集群的iptables,將dest集群的所有機器加入iptables。

問題二: org.apache.hadoop.ipc.StandbyException : //s.apache.org/sbnn-error

原因分析:搜索"s.apache.org/sbnn-error", 發現它是個網站,順便訪問了一下“ http://s.apache.org/sbnn-error ” , 自動跳轉到apache的wiki頁面, 顯示:

3.17. What does the message "Operation category READ/WRITE is not supported in state standby" mean?

In an HA-enabled cluster, DFS clients cannot know in advance which namenode is active at a given time. So when a client contacts a namenode and it happens to be the standby, the READ or WRITE operation will be refused and this message is logged. The client will then automatically contact the other namenode and try the operation again. As long as there is one active and one standby namenode in the cluster, this message can be safely ignored.

大意是說,DFS的客戶端不知道哪一個namenode是活躍(active)的,所以當客戶端連接一個備用的(standby)namenode時,讀或寫操作會被拒絕,所以打出這個日志。客戶端會自動連接另一個namenode,重新操作。

但事實上,在我們這并沒有自動連接另一個namenode,我也不知道為什么。

解決辦法:換一個namenode, 保證新的namenode是活躍的。即用 hadoop distcp hftp://活躍的namenode:50070/path ....

問題三:java.net.UnknowHostException

原因分析:圖中可以看到,distcp job已經啟動了,map 0%,? 但是報了UnknowHostException:pslaves55,可能的原因是在從datanode取數據時,用的是host pslave55, 而這個host是src集群特有的,dest集群不識別,所以報UnknowHostException.

解決辦法:在dest集群中配置hosts文件,將src集群中所有的host和ip的對應關系追加到dest集群中的hosts文件中,使得dest集群在訪問host名時(如pslave55)能自動映射到ip。

問題四: map 100%之后連接超時Java.net.SocketTimeoutException: connect timed out

錯誤的分析:map 100% 完成了,說明數據讀取完畢,但是沒有寫進目標集群,說明寫目標集群有問題。

正確分析:由于在網上沒找到相關資料,我下載了hadoop源碼, 查看了RetriableFileCopyCommand.java的源碼,報錯的位置是302行,如下圖。

繼續查看代碼,getInputStream方法中有可能報連接超時的就是fs.open(path)這一行代碼。繼續研究相關源碼,以及在源碼中增加調試信息,運行得知,該文件系統fs已經初始化完畢,正是HftpFileSystem,其他的變量,如path等均正確。所以是文件系統open src集群上的文件時連接超時,還有相關的端口沒有打開。

在執行distcp時,用tcpdump 抓取實際運行map的機器到src集群 host的tcp連接情況,如下圖,也能發現數據length =0 , 沒有真正的拷貝數據。

解決方案:開通dest集群到src集群所有datanode的http相關端口(默認為50075)。

(在本次項目中,我們誤打誤撞開通了dest集群到src集群所有datanode的控制端口50010, 然后運行hdfs協議就能跨集群版本拷貝數據了,所以沒有再開通50075端口。)

問題五: java.io.IOException:Check-sum mismatch?

分析:該問題很常見,能在網上查到,是因為不同版本hadoop 的checksum版本不同,老版本用crc32,新版本用crc32c。

When we run distcp between source and destination clusters with different versions, we may get the below exception. This is because, distcp using MRV2(YARN) from older version to newer version, may fail with these checksum error messages. Each hadoop versions use different checksum versions. Older one uses CRC32 and newer versions use CRC32C.

來自:http://www.catchdba.com/2014/03/18/distcp-between-two-different-versions-of-hadoop/

解決辦法:只要在distcp時增加兩個參數(-skipcrccheck -update),忽略crc檢查即可。注意-skipcrccheck參數要與-update同時使用才生效。



總結

要實現跨集群拷貝,如拷貝src集群的數據到dest集群,需要確認以下事情:

(1)確認dest集群機器都能ping通src集群所有ip。

(2)按需開通如下端口的防火墻,如使用hdfs協議需要開通1,2項;如使用hftp協議至少需要開通1,3,4項。

(3)如果部門間的端口防火墻已經開通,但還是telnet不同,請確認src集群的iptables已經加入了dest集群ip。

(4)如果在dest集群有UnknowHostException,則需要將src集群的host與ip映射關系追加到dest集群的hosts文件中。

(5)如果出現org.apache.hadoop.ipc.StandbyException, 換一個活躍的namenode試一試。

完。

附:常用HDFS端口配置

參考網頁:

distcp 官方文檔:https://hadoop.apache.org/docs/r1.0.4/cn/distcp.html? , ? ? ? ? ? https://hadoop.apache.org/docs/r1.2.1/distcp.html?

hdfs端口配置: http://www.cnblogs.com/ggjucheng/archive/2012/04/17/2454590.html

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,622評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,716評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,746評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,991評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,706評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,036評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,029評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,203評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,725評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,451評論 3 361
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,677評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,161評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,857評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,266評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,606評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,407評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,643評論 2 380

推薦閱讀更多精彩內容