hadoop集群部署

1.簡介:

hadoop中NameNode可以有多個(目前只支持2個)。每一個都有相同的職能。一個是active狀態的,一個是standby狀態的。當集群運行時,只有active狀態的NameNode是正常工作的,standby狀態的NameNode是處于待命狀態的,時刻同步active狀態NameNode的數據。一旦active狀態的NameNode不能工作,standby狀態的NameNode就可以轉變為active狀態的,就可以繼續工作了。

2個NameNode的數據其實是實時共享的。新HDFS采用了一種共享機制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)進行共享。NFS是操作系統層面的,JournalNode是hadoop層面的,我們這里使用JournalNode集群進行數據共享(這也是主流的做法)。
JournalNode的架構圖如下:


image.png

兩個NameNode為了數據同步,會通過一組稱作JournalNodes的獨立進程進行相互通信。當active狀態的NameNode的命名空間有任何修改時,會告知大部分的JournalNodes進程。standby狀態的NameNode有能力讀取JNs中的變更信息,并且一直監控edit log的變化,把變化應用于自己的命名空間。standby可以確保在集群出錯時,命名空間狀態已經完全同步了。
對于HA集群而言,確保同一時刻只有一個NameNode處于active狀態是至關重要的。否則,兩個NameNode的數據狀態就會產生分歧,可能丟失數據,或者產生錯誤的結果。為了保證這點,這就需要利用使用ZooKeeper了。首先HDFS集群中的兩個NameNode都在ZooKeeper中注冊,當active狀態的NameNode出故障時,ZooKeeper能檢測到這種情況,它就會自動把standby狀態的NameNode切換為active狀態。
hadoop-ha包含HDFS的HA和YARN的HA,下面就2個部件的HA進行搭建。
JournalNodes:namenode數據共享
ZooKeeper:心跳檢測
hadoop-ha包含HDFS的HA和YARN的HA,

2.環境準備 (ps: The picture is replicating)
image.png

(1)各服務器其修改主機名,添加hosts文件,關閉防火墻

[root@c7001 ~]#  cat >> /etc/hosts  << EOF
192.168.16.135  c7001
192.168.16.80   c7002
192.168.16.95   c7003
192.168.16.97   c7004
192.168.16.101  c7005
EOF

(2)c7001配置ssh免密登陸,用于啟動集群

ssh-keygen    -t rsa 
sh-copy-id   -i ~/.ssh/id_rsa.pub  c7001
ssh-copy-id  -i ~/.ssh/id_rsa.pub  c7002 
ssh-copy-id  -i ~/.ssh/id_rsa.pub  c7003
ssh-copy-id  -i ~/.ssh/id_rsa.pub  c7004
ssh-copy-id  -i ~/.ssh/id_rsa.pub  c7005

(3) 各服務器配置jdk1.7+

[root@c7001 ~]# tar zxf jdk-8u171-linux-x64.tar.gz -C  /opt/
[root@c7001 opt]# mv jdk1.8.0_171/  jdk1.8
[root@c7001 opt]# vim /etc/profile
export JAVA_HOME=/opt/jdk1.8
export PATH=$PATH:$JAVA_HOME/bin
[root@c7001 ~] source  /etc/profile
[root@c7001 opt]# java -version
java version "1.8.0_171

(4)安裝Hadoop集群
[root@c7001 ~]# tar zxf hadoop-2.7.6.tar.gz -C /opt/
在c7001終端修改hadoop配置文件,這里需要修改的有
core-site.xml、hdfs-site.xml、mapreduce-site.xml、yarn-site.xml、hadoop-env.sh、mapred-env.sh、yarn-env.sh這7個文件
core-site.xml

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

 <property>

  <name>fs.defaultFS</name>

  <value>hdfs://bdcluster</value>

 </property>

 <!-- 指定hadoop臨時目錄 -->

 <property>

  <name>hadoop.tmp.dir</name>

  <value>/opt/hadoop-2.7.6/tmp</value>

 </property>

 <!-- 指定zookeeper地址 -->

 <property>

  <name>ha.zookeeper.quorum</name>

  <value>c7003:2181,c7004:2181,c7005:2181</value>

 </property>

 <property>

  <name>ha.zookeeper.session-timeout.ms</name>

  <value>3000</value>

 </property>

</configuration>

hdfs-site.xml

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

 <!--指定hdfs的nameservice為bdcluster,需要和core-site.xml中的保持一致 -->

 <property>

  <name>dfs.nameservices</name>

  <value>bdcluster</value>

 </property>

 <!-- bdcluster下面有兩個NameNode,分別是nn1,nn2 -->

 <property>

  <name>dfs.ha.namenodes.bdcluster</name>

  <value>nn1,nn2</value>

 </property>

 <!-- nn1的RPC通信地址 -->

 <property>

  <name>dfs.namenode.rpc-address.bdcluster.nn1</name>

  <value>c7001:9000</value>

 </property>

 <!-- nn2的RPC通信地址 -->

 <property>

  <name>dfs.namenode.rpc-address.bdcluster.nn2</name>

  <value>c7002:9000</value>

 </property>

 <!-- nn1的http通信地址 -->

 <property>

  <name>dfs.namenode.http-address.bdcluster.nn1</name>

  <value>c7001:50070</value>

 </property>

 <!-- nn2的http通信地址 -->

 <property>

  <name>dfs.namenode.http-address.bdcluster.nn2</name>

  <value>c7002:50070</value>

 </property>

 <!-- 指定NameNode的元數據在JournalNode上的存放位置 -->

 <property>

  <name>dfs.namenode.shared.edits.dir</name>

  <value>qjournal://c7003:8485;c7004:8485;c7005:8485/bdcluster</value>

 </property>

 <!-- 指定JournalNode在本地磁盤存放數據的位置 -->

 <property>

  <name>dfs.journalnode.edits.dir</name>

  <value>/opt/hadoop-2.7.6/tmp/journal</value>

 </property>

 <property>

  <name>dfs.ha.automatic-failover.enabled</name>

  <value>true</value>

 </property>

 <!-- 配置失敗自動切換實現方式 -->

 <property>

  <name>dfs.client.failover.proxy.provider.bdcluster</name>

  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

  </value>

 </property>

 <!-- 配置隔離機制,多個機制用換行分割,即每個機制暫用一行 -->

 <property>

  <name>dfs.ha.fencing.methods</name>

  <value>

   sshfence

   shell(/bin/true)

  </value>

 </property>

 <!-- 使用sshfence隔離機制時需要ssh免密碼登陸 -->

 <property>

  <name>dfs.ha.fencing.ssh.private-key-files</name>

  <value>/root/.ssh/id_rsa</value>

 </property>

 <!-- 配置sshfence隔離機制超時時間 -->

 <property>

  <name>dfs.ha.fencing.ssh.connect-timeout</name>

  <value>30000</value>

 </property>

 <!--指定namenode名稱空間的存儲地址 -->

 <property>

  <name>dfs.namenode.name.dir</name>

  <value>file:///opt/hadoop-2.7.6/hdfs/name</value>

 </property>

 <!--指定datanode數據存儲地址 -->

 <property>

  <name>dfs.datanode.data.dir</name>

  <value>file:///opt/hadoop-2.7.6/hdfs/data</value>

 </property>

 <!--指定數據冗余份數 -->

 <property>

  <name>dfs.replication</name>

  <value>3</value>

 </property>

</configuration>

mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

 <property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

 </property>

 <!-- 配置 MapReduce JobHistory Server 地址 ,默認端口10020 -->

 <property>

  <name>mapreduce.jobhistory.address</name>

  <value>0.0.0.0:10020</value>

 </property>

 <!-- 配置 MapReduce JobHistory Server web ui 地址, 默認端口19888 -->

 <property>

  <name>mapreduce.jobhistory.webapp.address</name>

  <value>0.0.0.0:19888</value>

 </property>

</configuration>

yarn-site.xml

<?xml version="1.0"?>

<configuration>

 <!--開啟resourcemanagerHA,默認為false -->

 <property>

  <name>yarn.resourcemanager.ha.enabled</name>

  <value>true</value>

 </property>

 <!--開啟自動恢復功能 -->

 <property>

  <name>yarn.resourcemanager.recovery.enabled</name>

  <value>true</value>

 </property>

 <!-- 指定RM的cluster id -->

 <property>

  <name>yarn.resourcemanager.cluster-id</name>

  <value>yrc</value>

 </property>

 <!--配置resourcemanager -->

 <property>

  <name>yarn.resourcemanager.ha.rm-ids</name>

  <value>rm1,rm2</value>

 </property>

 <!-- 分別指定RM的地址 -->

 <property>

  <name>yarn.resourcemanager.hostname.rm1</name>

  <value>c7001</value>

 </property>

 <property>

  <name>yarn.resourcemanager.hostname.rm2</name>

  <value>c7002</value>

 </property>

 <!-- <property> <name>yarn.resourcemanager.ha.id</name> <value>rm1</value> 

  <description>If we want to launch more than one RM in single node,we need 

  this configuration</description> </property> -->

 <!-- 指定zk集群地址 -->

 <property>

  <name>ha.zookeeper.quorum</name>

  <value>c7003:2181,c7004:2181,c7005:2181</value>

 </property>

 !--配置與zookeeper的連接地址-->

 <property>

  <name>yarn.resourcemanager.zk-state-store.address</name>

  <value>c7003:2181,c7004:2181,c7005:2181</value>

 </property>

 <property>

  <name>yarn.resourcemanager.store.class</name>

  <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore

  </value>

 </property>

 <property>

  <name>yarn.resourcemanager.zk-address</name>

  <value>c7003:2181,c7004:2181,c7005:2181</value>

 </property>

 <property>

  <name>yarn.resourcemanager.ha.automatic-failover.zk-base-path</name>

  <value>/yarn-leader-election</value>

  <description>Optionalsetting.Thedefaultvalueis/yarn-leader-election

  </description>

 </property>

 <property>

  <name>yarn.nodemanager.aux-services</name>

  <value>mapreduce_shuffle</value>

 </property>

</configuration>

設置環境變量文件
hadoop-env.sh & mapred-env.sh & yarn-env.s

export JAVA_HOME=/opt/jdk1.8
export CLASS_PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib 
export HADOOP_HOME=/opt/hadoop-2.7.6
export HADOOP_PID_DIR=/opt/hadoop-2.7.6/pids 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 
export HADOOP_OPTS="$HADOOP_OPTS-Djava.library.path=$HADOOP_HOME/lib/native" 
export HADOOP_PREFIX=$HADOOP_HOME 
export HADOOP_MAPRED_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 
export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop 
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop 
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native 
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

slaves

c7001
c7002
c7003
c7004
c7005

配置完畢后發送到其他主機

scp -r /opt/hadoop-2.7.6/etc/hadoop root@c7002:/opt/hadoop-2.7.6/etc/
scp -r /opt/hadoop-2.7.6/etc/hadoop root@c7003:/opt/hadoop-2.7.6/etc/
scp -r /opt/hadoop-2.7.6/etc/hadoop root@c7004:/opt/hadoop-2.7.6/etc/
scp -r /opt/hadoop-2.7.6/etc/hadoop root@c7005:/opt/hadoop-2.7.6/etc/

(5)啟動Hadoop集群 (jps 確認進程啟動)
先啟動zookeeper集群,部署看上一篇
http://www.lxweimin.com/p/f562d6d85f93
分別在c7003、c7004、c7005上執行如下命令啟動zookeeper集群;

[root@c7003 bin]$ sh zkServer.sh start
[root@c7004 bin]$ sh zkServer.sh start
[root@c7005 bin]$ sh zkServer.sh start

啟動journalnode集群

在c7001上執行如下命令完成JournalNode集群的啟動

[root@c7001 hadoop-2.7.6]$ sbin/hadoop-daemons.sh start journalnode

格式化zkfc,讓在zookeeper中生成ha節點

[root@c7001 hadoop-2.7.6]# bin/hdfs zkfc  -formatZK

格式成功后,查看zookeeper中可以看到

[root@c7003 bin]# ./zkCli.sh -server  c7003:2181
[zk: localhost:2181(CONNECTED) 1] ls /hadoop-ha
[bdcluster]

格式化hdfs

[root@c7001 hadoop-2.7.6]# bin/hadoop namenode   -format

啟動NameNode
首先在c7001上啟動active節點,在c7001上執行如下命令

[root@c7001 hadoop-2.7.6]# sbin/hadoop-daemons.sh  start  namenode

在c7002上同步namenode的數據,同時啟動standby的namenod,命令如下

把NameNode的數據同步到c7002上

[root@c7002 hadoop-2.7.6]# bin/hdfs namenode -bootstrapStandby

啟動c7002上的namenode作為standby

[root@c7002 hadoop-2.7.6]$ sbin/hadoop-daemon.sh start namenode

啟動datanode

在c7001上執行如下命令
[root@c7001 hadoop-2.7.6]$ sbin/hadoop-daemons.sh start datanode

啟動yarn
在作為資源管理器上的機器上啟動,我這里是c7001,執行如下命令完成year的啟動

[root@c7001 hadoop-2.7.6]$ sbin/start-yarn.sh

啟動ZKFC
在c7001上執行如下命令,完成ZKFC的啟動

[root@c7001 hadoop-2.7.6]$ sbin/hadoop-daemons.sh start zkfc

全部啟動完后分別在c7001、c7002、c7003、c7004、c7005上執行jps是可以看到下面這些進程的

各節點jps PID進程

#c7001上的java PID進程
[root@c7001 hadoop-2.7.6]$ jps
7857 DataNode
7270 JournalNode
8118 NodeManager
8550 DFSZKFailoverController
8007 ResourceManager
8968 NameNode
9065 Jps
#c7002上的java PID進程
[root@c7002 hadoop-2.7.6]$ jps
6929 DFSZKFailoverController
6738 NodeManager
6441 NameNode
6603 DataNode
6221 JournalNode
7615 Jps
#c7003上的java PID進程
[root@c7003 hadoop-2.7.6]$ jps
6040 DataNode
6473 Jps
4764 QuorumPeerMain
5870 JournalNode
6175 NodeManager
#c7004上的java PID進程
[root@c7004 hadoop-2.7.6]$ jps
4739 QuorumPeerMain
5875 JournalNode
6180 NodeManager
6475 Jps
6046 DataNode
#c7005上的java PID進程
6227 NodeManager
6518 Jps
6091 DataNode
5916 JournalNode
4813 QuorumPeerMain

測試訪問web


image.png

image.png

測試高可用
此時在c7001上執行如下命令關閉c7001上的namenode

[root@c7001 hadoop-2.7.6]$ sbin/hadoop-daemon.sh stop namenode

再次查看c7002上的namenode,發現自動切換為active了!
各服務端口(參考)

image.png

image.png

image.png

http://www.cnblogs.com/netbloomy/p/6660131.html

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,908評論 6 541
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,324評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,018評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,675評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,417評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,783評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,779評論 3 446
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,960評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,522評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,267評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,471評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,009評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,698評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,099評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,386評論 1 294
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,204評論 3 398
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,436評論 2 378

推薦閱讀更多精彩內容