分三步走:
一、機器的規劃
datanode 和nodemanager每臺機器都搭配 一個作為數據存儲 ,一個數據分析
領導者: 一號機分配namenode
二號機 resourcemanager
三號機secondarymanager
一號機多一個historyserver
二、搭建
分三小步:1.前期準備
2.修改那三個-env.sh文件
3.修改相關的 -site.xml文件
開始:
解壓到app目錄下, 然后刪除share下的doc
修改的三個文件:
1· hadoop-env.sh
2· yarn-env.sh
3· mapred-env.sh文件
配置上java 的路徑
export JAVA_HOME="java的解壓路徑"
然后是修改四個-site.xml文件 請參考《hadoop的搭建筆記》那里
1.core-site.xml
2.hdfs-site.xml
3.yarn-site.xml
4.mapred-site.xml
1.core-site.xml:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://lyanmei001:8020</value> //一個默認的入口
</property>
<property>
<name>hadoop.tmp.dir</name> //緩存目錄
<value>/opt/moduels/hadoop-2.5.0/data/tmp</value> //沒有這個目錄 需要去先把這個目錄建好
</property>
</configuration>
2.hdfs-site.xml
<property>
<name>dfs.replication</name> //待定 應該如圖配置的是權限是否開啟
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name> //secondarynamenode的配置
<value>yanmei003:50090</value> //放到的三號機上面
</property>
3.mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property> //歷史服務器 在一號機上 所以要加上
<name>mapreduce.jobhistory.address</name>
<value>yanmei001:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>yanmei001:19888</value>
</property>
記得改mapred-site.xml的名字
用mv 移動的時候就可以改名了
4.yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>yanmei002</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name> //緩存時間
<value>604800</value>
</property>
</configuration>
解釋點:
<property>
<name>yarn.resourcemanager.hostname</name> //resourcemanager 在2號機器上 yanmei002
<value>yanmei002</value>
</property>
到這搭建就完成了 ,不過只是在一號機器上搭建了 ,
其他機器怎么辦了,兩個方法 :
1.去解壓重復以上步驟
2.直接拷貝過去 (先在個機器上建好存儲拷貝內容的文件夾)
命令: scp -r hadoop-2.5.0/ yanmei002:/opt/app //2號機器
scp -r hadoop-2.5.0/ yanmei003:/opt/app //3號機器
完了以后記得格式化namenode
bin/hdfs namenode -format
查看data/tmp文件
第三步、啟動各個進程
按照機器規劃來啟動各個進程
啟動hadoop類型:
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/hadoop-daemon.sh start secondarynamenode
啟動yarn:
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
啟動歷史服務器:
啟動:sbin/mr-jobhistory-daemon.sh start historyserver
關閉命令:
sbin/mr-jobhistory-daemon.sh stop historyserver