Hadoop安裝與集群配置

1.軟件及版本

a.VMware Workstation Pro

b.CentOS-6.8-x86_64-minimal

c.hadoop-2.7.3.tar

d.jdk-8u91-linux-x64

e.XShell5

f.Xftp5

2.安裝VMware

和正常軟件一樣雙擊安裝

輸入序列號

http://www.epinv.com/post/6304.html

3.配置虛擬機(jī)

安裝注冊完成后打開VMware進(jìn)行虛擬網(wǎng)絡(luò)的相關(guān)設(shè)置


注意圈出的地方,接下來是新建一個(gè)虛擬機(jī)




注意安裝位置,虛擬機(jī)還是很占內(nèi)存的,建議放在非系統(tǒng)盤

? ? ? ?磁盤大小不用糾結(jié),不會占用你全部設(shè)置的大小,建議寫大一點(diǎn)。這樣一個(gè)裸機(jī)就建立完成了,下面要安裝系統(tǒng)。


一定要注意選取啟動時(shí)連接!單機(jī)確定完成這一步。接下來安裝操作系統(tǒng)

4.安裝操作系統(tǒng)

進(jìn)入虛擬機(jī),鼠標(biāo)會消失,按住 CTL+ALT就可以顯示鼠標(biāo)。

進(jìn)入虛擬機(jī)直接按回車


這一步是檢查安裝光盤,我們是文件,直接選擇跳過


選擇安裝界面語言


選擇系統(tǒng)語言


這一步選擇基本存儲設(shè)備即可


安裝后整個(gè)磁盤之前的數(shù)據(jù)會被刪除,我們是虛擬機(jī)本來就沒有數(shù)據(jù),選擇YES


設(shè)置主機(jī)名,進(jìn)入系統(tǒng)以后也會設(shè)置


選擇時(shí)區(qū)


設(shè)置登錄密碼,至少六位,登陸名字是root不熟悉LINUX的需要注意


安裝過程很快,三分鐘左右


安裝完成,重啟虛擬機(jī)

5.網(wǎng)絡(luò)設(shè)置


進(jìn)入系統(tǒng)輸入帳號密碼,LINUX中密碼是不顯示的

本次配置集群用到的LINUX命令如下(老手直接略過):

指定IP地址

vi /etc/sysconfig/network-scripts/ifcfg-eth0

照著下面的圖敲,注意HWADDR UUID每個(gè)機(jī)器是不同的

配置dns解析

echo "nameserver 114.114.114.114" >> /etc/resolv.conf

echo "nameserver 8.8.8.8" >> /etc/resolv.conf

設(shè)置主機(jī)名稱

vi /etc/sysconfig/network


主機(jī)名地址映射

vi /etc/hosts


重啟網(wǎng)絡(luò)服務(wù)

service network restart

測試網(wǎng)絡(luò)


輸入任意網(wǎng)址,可以連接上就可以了

注意

這時(shí),虛擬機(jī)并沒有安裝文本編輯器需要下載安裝,命令如下

yum install vim -y ?(耐心等待 三分鐘左右完成)?

這時(shí)網(wǎng)絡(luò)環(huán)境已經(jīng)配置完成

6.安裝配置Xshell 5 Xftp5

Xshell是遠(yuǎn)程登錄軟件,和直接在虛擬機(jī)上操作一樣,只是操作方便且有附加功能。?

Xftp用于WINDOWS和LINUX之間文件傳輸

安裝比較簡單和QQ等常用軟件類似,不占用篇幅,只介紹配置。

配置Xshell


新建遠(yuǎn)程連接




勾選記住用戶名


單機(jī)確定連接完成

7.安裝JDK HADOOP


單機(jī)這個(gè)圖標(biāo)打開Xftp


傳文件很簡單,雙擊即可,我將安裝下載到/usr/local目錄

安裝JDK

1.進(jìn)入文件目錄:cd /usr/local

2.解壓JDK:rpm -ivh ./jdk-8u91-linux-x64.jdk

3.輸入java驗(yàn)證安裝是否成功

4.配置環(huán)境變量:vim /etc/profile

```

JAVA_HOME=/usr/java/jdk1.8.0_91

JRE_HOME=/usr/java/jdk1.8.0_91/jre

PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

export JAVA_HOME JRE_HOME PATH CLASSPATH

```

5.使環(huán)境變量生效

```

source /etc/profile

```

安裝HADOOP

1.進(jìn)入文件目錄:cd /usr/local

2.解壓HADOOP:tar –xvf ./hadoop-2.7.3.tar.gz

3.修改目錄名稱:mv hadoop-2.7.3 hadoop

4.修改hadoop-env.sh:vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

修改export JAVA_HOME 語句為 export JAVA_HOME=/usr/java/default

5.修改環(huán)境變量:vi /etc/profile

最后加上:export PATH=$PATH:/usr/hadoop/bin:/usr/hadoop/sbin

6.使環(huán)境變量配置生效:source /etc/profile

7.在任意目錄測試hadoop命令 觀察是否安裝成功

8.關(guān)閉虛擬機(jī)復(fù)制3份



注意是創(chuàng)建完整克隆

9.開機(jī)后參照之前的步驟各自配置網(wǎng)絡(luò),主機(jī)名

注意:

配置hosts文件時(shí)每一個(gè)節(jié)點(diǎn)的IP以及hostname都要加上

ip分配如下


VMware克隆后,重啟網(wǎng)絡(luò)會出現(xiàn)問題,

解決方案如下:

首先,打開/etc/udev/rules.d/70-persistent-net.rules內(nèi)容如下面例子所示:

# vi /etc/udev/rules.d/70-persistent-net.rules

# This file was automatically generated by the /lib/udev/write_net_rules

# program, run by the persistent-net-generator.rules rules file.

#

# You can modify it, as long as you keep each rule on a single

# line, and change only the value of the NAME= key.

# PCI device 0x1022:0x2000 (pcnet32)

SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:8f:89:97", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"

# PCI device 0x1022:0x2000 (pcnet32)

SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:50:bd:17", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"

記錄下,eth1網(wǎng)卡的mac地址00:0c:29:50:bd:17

接下來,打開/etc/sysconfig/network-scripts/ifcfg-eth0

# vi /etc/sysconfig/network-scripts/ifcfg-eth0

將 DEVICE="eth0"? 改成? DEVICE="eth1"? ,

將 HWADDR="00:0c:29:8f:89:97" 改成上面的mac地址? HWADDR="00:0c:29:50:bd:17"

最后,重啟網(wǎng)絡(luò)

# service network restart

正常了。

原文如下

10.集群配置

1.配置core-site.xml

在所有的節(jié)點(diǎn)上都應(yīng)該修改:vim /etc/hadoop/core-site.xml


2.配置hdfs-site.xml

僅在master節(jié)點(diǎn)上配置


3.格式化HDFS

輸入:hdfs namenode -format

11.啟動集群

在master上:hadoop-daemon.sh start namenode

在slave上:hadoop-daemon.sh start datanode

分別各自輸入JPS可以觀察到:



出現(xiàn)以上的現(xiàn)象說明集群配置好了 關(guān)閉集群

hadoop-daemon.sh stop master(slaveX)

12.集中管理集群及免密鑰登錄

集中管理集群

修改master上slaves文件,每一個(gè)slave占一行

vim /usr/local/hadoop/etc/hadoop/slaves


免密鑰登錄配置

在slave上:

1.cd .ssh

2.ssh-keygen -t rsa (按四下回車)?

在目錄下會出現(xiàn)私鑰id_rsa和公鑰id_rsa.pub


3.ssh-copy-id slave2 ?;ssh-copy-id slave2 ?;ssh-copy-id slave3 ?;ssh-copy-id master

把生成的公鑰copy到所有的節(jié)點(diǎn)上(包括master)。


在目錄下會生成 authorized_keys 文件,這樣就可以實(shí)現(xiàn)免密鑰登錄

用ssh X 測試。

啟動集群

在master上:

啟動集群:start-dfs.sh

停止集群:stop-dfs.sh

這樣HADOOP HDFS集群搭建就大功告成了

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容