vmware搭建hadoop集群

0. 安裝環境

安裝系統版本,集群IP列表

  • ubunut 16.04 server
192.168.24.128  ubuntu-master
192.168.24.129  ubuntu-slave1
192.168.24.130  ubuntu-slave2

1. 創建用戶 和用戶組(hadoop 用戶的密碼也是hadoop 方便記憶)

useradd hadoop
passwd hadoop
groupadd bigdata
usermod -a -G bigdata hadoop
mkdir /home/hadoop
chown -R hadoop:bigdata /home/hadoop

2. 更改hosts 文件以及對應的機器hostname

host文件 /etc/hosts
hostname文件 /etc/hostname

cat /etc/hosts
192.168.24.128  ubuntu-master
192.168.24.129  ubuntu-slave1
192.168.24.130  ubuntu-slave2

在這里要注意,我安裝的集群是用虛擬機創建的,機器之間是直接復制虛擬機的方式,這時有一個問題就是機器的hostname都是一樣的,這樣一來,即使修改了hosts 文件,但是每臺機器的hostname 并沒有生效,需要修改各自的hostname保持和上述文件中一樣的對應關系。

3. 無密碼登陸

在每臺虛擬機上分別執行以下命令

ssh-keygen -t rsa -P ""
cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

執行

ssh localhost

可以發現此時無需輸入密碼

集群之間的無密碼ssh 通信

以192.168.24.128/129/130 三臺機為例

登錄192.168.24.128

ssh-copy-id -i $HOME/.ssh/id_rsa.pub hadoop@192.168.24.129
ssh-copy-id -i $HOME/.ssh/id_rsa.pub hadoop@192.168.24.130

5. 設置環境變量

安裝jdk,并設置環境變量,我的.bashrc文件的相關內容如下

#set oracle jdk environment
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_79  ## 這里要注意目錄要換成自己解壓的jdk 目錄
export JRE_HOME=${JAVA_HOME}/jre  
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib   
export PATH=${JAVA_HOME}/bin:$PATH

5. 上傳hadoop壓縮包到指定目錄并解壓

$ ls
hadoop-2.6.2  hadoop-2.6.2.tar.gz

6. 修改相應的配置文件

需要修改的文件列表如下

~/hadoop/etc/hadoop/hadoop-env.sh
~/hadoop/etc/hadoop/yarn-env.sh
~/hadoop/etc/hadoop/slaves
~/hadoop/etc/hadoop/core-site.xml
~/hadoop/etc/hadoop/hdfs-site.xml
~/hadoop/etc/hadoop/mapred-site.xml
~/hadoop/etc/hadoop/yarn-site.xml
  • 以下兩個文件設置的內容為JAVA_HOME環境變量
~/hadoop/etc/hadoop/hadoop-env.sh
~/hadoop/etc/hadoop/yarn-env.sh
  • 設置slave機器的列表
cat ~/hadoop/etc/hadoop/slaves
192.168.24.129
192.168.24.130
  • ~/hadoop/etc/hadoop/core-site.xml
<configuration>
  <property>
    <name>hadoop.tmp.dir</name>  
    <value>/home/hadoop/bigdata/hadoop/tmp</value>
  </property>
  <property>
    <name>fs.default.name</name>  
    <value>hdfs://192.168.24.128:9000</value>
  </property>
</configuration>
  • hdfs-site.xml
<configuration>
  <property>
    <name>dfs.http.address</name>  
    <value>192.168.24.128:50070</value>
  </property>  
  <property>
    <name>dfs.namenode.secondary.http-address</name>  
    <value>192.168.24.128:50090</value>
  </property>  
  <property>
    <name>dfs.replication</name>  
    <value>1</value>
  </property>
</configuration>
  • mapred-site.xml
<configuration>
  <property>
    <name>mapred.job.tracker</name>  
    <value>192.168.24.128:9001</value>
  </property>  
  <property>
    <name>mapred.map.tasks</name>  
    <value>2</value>
  </property>  
  <property>
    <name>mapred.reduce.tasks</name>  
    <value>2</value>
  </property>  
  <property>
    <name>mapreduce.framework.name</name>  
    <value>yarn</value>
  </property>  
  <property>
    <name>mapreduce.jobhistory.address</name>  
    <value>192.168.24.128:10020</value>
  </property>  
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>  
    <value>192.168.24.128:19888</value>
  </property>
</configuration>
  • yarn-site.xml
<configuration>
  <!-- Site specific YARN configuration properties -->  
  <property>
    <name>yarn.resourcemanager.address</name>  
    <value>192.168.24.128:8032</value>
  </property>  
  <property>
    <name>yarn.resourcemanager.scheduler.address</name>  
    <value>192.168.24.128:8030</value>
  </property>  
  <property>
    <name>yarn.resourcemanager.webapp.address</name>  
    <value>192.168.24.128:8088</value>
  </property>  
  <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>  
    <value>192.168.24.128:8031</value>
  </property>  
  <property>
    <name>yarn.resourcemanager.admin.address</name>  
    <value>192.168.24.128:8033</value>
  </property>  
  <property>
    <name>yarn.nodemanager.aux-services</name>  
    <value>mapreduce_shuffle</value>
  </property>  
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
</configuration>

按照上面的配置之后應該來說就可以了,但是在之前安裝的過程中,我遇到過任務hang住的情況,查找資料發現是內存不夠的原因,由于是自己電腦跑的虛擬機,內存有限,于是針對內存情況增加如下配置:

mapred-site.xml
<property>
 <name>mapreduce.map.memory.mb</name>
 <value>230</value>
</property>

<property>
 <name>mapreduce.reduce.memory.mb</name>
 <value>460</value>
</property>

<property>
 <name>mapreduce.map.java.opts</name>
 <value>-Xmx184m</value>
</property>

<property>
 <name>mapreduce.reduce.java.opts</name>
 <value>-Xmx368m</value>
</property>

<property>
 <name>yarn.app.mapreduce.am.resource.mb</name>
 <value>460</value>
</property>

<property>
 <name>yarn.app.mapreduce.am.command-opts</name>
 <value>-Xmx368m</value>
</property>
yarn-site.xml
<property>
 <name>yarn.nodemanager.resource.memory-mb</name>
 <value>700</value>
</property>

<property>
 <name>yarn.scheduler.minimum-allocation-mb</name>
 <value>230</value>
</property>

<property>
 <name>yarn.scheduler.maximum-allocation-mb</name>
 <value>700</value>
</property>

7. 啟動

首次啟動需要先在 Master 節點執行 NameNode 的格式化:

./hdfs namenode -format
進入~/hadoop/sbin目錄
./start-dfs.sh
./start-yarn.sh
./mr-jobhistory-daemon.sh start historyserver

查看進程

hadoop@ubuntu-master:~$ jps
6193 ResourceManager
5863 NameNode
6051 SecondaryNameNode
6476 JobHistoryServer
6937 Jps
hadoop@ubuntu-slave1:~$ jps
3536 Jps
2884 NodeManager
2771 DataNode
hadoop@ubuntu-slave2:~$ jps
2937 NodeManager
2826 DataNode
3653 Jps

登錄192.168.24.128:50070可以看到hadoop集群基本信息

8. 運行測試例子

進入 ~/hadoop/bin目錄

./hdfs dfs -mkdir -p /user/hadoop
./hdfs dfs -mkdir input
./hdfs dfs -put /home/hadoop/bigdata/hadoop/etc/hadoop/*.xml input

./hadoop jar /home/hadoop/bigdata/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'

運行程序部分結果如下:

17/01/13 23:45:14 INFO client.RMProxy: Connecting to ResourceManager at /192.168.24.128:8032
17/01/13 23:45:17 WARN mapreduce.JobResourceUploader: No job jar file set.  User classes may not be found. See Job or Job#setJar(String).
17/01/13 23:45:17 INFO input.FileInputFormat: Total input paths to process : 9
17/01/13 23:45:18 INFO mapreduce.JobSubmitter: number of splits:9
17/01/13 23:45:19 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1484322039697_0001
17/01/13 23:45:20 INFO mapred.YARNRunner: Job jar is not present. Not adding any jar to the list of resources.
17/01/13 23:45:21 INFO impl.YarnClientImpl: Submitted application application_1484322039697_0001
17/01/13 23:45:22 INFO mapreduce.Job: The url to track the job: http://ubuntu-master:8088/proxy/application_1484322039697_0001/
17/01/13 23:45:22 INFO mapreduce.Job: Running job: job_1484322039697_0001
17/01/13 23:45:53 INFO mapreduce.Job: Job job_1484322039697_0001 running in uber mode : false
17/01/13 23:45:53 INFO mapreduce.Job:  map 0% reduce 0%
17/01/13 23:46:22 INFO mapreduce.Job:  map 11% reduce 0%
17/01/13 23:46:43 INFO mapreduce.Job:  map 22% reduce 0%
17/01/13 23:47:08 INFO mapreduce.Job:  map 33% reduce 0%
17/01/13 23:47:09 INFO mapreduce.Job:  map 44% reduce 0%
17/01/13 23:47:10 INFO mapreduce.Job:  map 56% reduce 0%
17/01/13 23:47:11 INFO mapreduce.Job:  map 67% reduce 0%
17/01/13 23:47:59 INFO mapreduce.Job:  map 78% reduce 0%
17/01/13 23:48:03 INFO mapreduce.Job:  map 100% reduce 0%
17/01/13 23:48:24 INFO mapreduce.Job:  map 100% reduce 50%
17/01/13 23:48:46 INFO mapreduce.Job:  map 100% reduce 100%
17/01/13 23:48:47 INFO mapreduce.Job: Job job_1484322039697_0001 completed successfully
... ...

9. 后記

  1. 之前也零零散散裝過幾次hadoop,但是沒有記錄筆記,之前安裝的虛擬機也被刪除了,這此就重新整理了一下,以便以后參考。
  2. 安裝的過程并不順利,中間遇到了磕磕絆絆的小問題,之后會整理單獨一個遇到問題的筆記,暫時就這樣
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,460評論 6 538
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,067評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,467評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,468評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,184評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,582評論 1 325
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,616評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,794評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,343評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,096評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,291評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,863評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,513評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,941評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,190評論 1 291
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,026評論 3 396
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,253評論 2 375

推薦閱讀更多精彩內容