大數據平臺搭建(純文字版)

  1. 安裝虛擬機環境
    下載VMware并安裝、破解
    在VMWare官網上http://www.vmware.com/ ,選擇VMware workstation12 pro版本安裝。

  2. 創建虛擬機
    在Ubuntu的官網https://www.ubuntu.com/上下載, ubuntu-14.04.4-desktop-amd64.iso,該版本為穩定的維護的版本。

  3. 安裝VMWare Tools
    ①啟動Ubuntu系統,進入到桌面
    ②單擊VMWare的【虛擬機】菜單,選擇【安裝VMWare Tools】命令
    系統會自動掛載VMWare Tools,并自動打開
    ③解壓tar.gz包
    將壓縮包復制到桌面,打開terminal,執行解壓命令
    tar -zxvf VMwareTools-10.0.0-2977863.tar.gz
    ④安裝VMWare Tools
    切換到文件夾下,執行安裝文件,重啟后生效
    cd Desktop/vmware-tools-distrib/
    sudo ./vmware-install.pl

  4. 使用共享文件夾
    ①在物理機Windows系統中創建一個文件夾,用作共享文件夾
    ②在虛擬機關閉的情況下,打開虛擬機設置,在彈出的對話框中單擊【選項】
    ③單擊【共享文件夾】,在右側選擇【總是啟用】選項,單擊【添加】按鈕
    ④在彈出的向導對話框中,進行如下操作,添加共享文件夾
    ⑤啟動虛擬機系統,共享文件夾被放在【/mnt/hgfs/】目錄下,即在【/mnt/hgfs/share】中就可以找到被共享的文件了

  5. 安裝JDK
    ①下載jdk安裝包,放入物理機的共享文件夾
    當前官網的最新版本jdk1.8.0_05
    ②解壓安裝jdk
    進入虛擬機,切換到共享文件夾下,輸入命令進行安裝
    cd /mnt/hgfs/share
    sudo tar zxvf jdk-8u5-linux-x64.gz -C /usr/local/
    ③配置hadoop用戶環境變量
    sudo gedit ~/.bashrc
    打開后添加:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    export PATH=${JAVA_HOME}/bin:$PATH
    保存后退出
    ④配置默認jdk版本
    sudo update-alternatives --install /usr/local/jdk1.8.0_65 /bin/java 300
    sudo update-alternatives --install /usr/local/jdk1.8.0_65 /bin/javac 300
    sudo update-alternatives --config java
    ⑤刷新配置
    source ~/.bashrc
    ⑥查看環境是否配置成功
    java -version

  6. 系統環境配置
    ①修改主機名:
    (1)臨時修改:
    sudo hostname master
    (2)永久修改:
    sudo gedit /etc/hostname
    修改后重啟生效
    ②設置固定IP
    sudo gedit /etc/network/interfaces
    在其中寫入:
    auto eth0
    iface eth0 inet static
    address 192.168.111.128
    netmask 255.255.255.0
    gateway 192.168.111.1
    ③修改主機名和 IP 的映射關系
    sudo gedit /etc/hosts
    打開后修改為:
    127.0.0.1 localhost
    127.0.0.1 master
    192.168.111.200 master
    ④關閉防火墻
    sudo ufw disable
    之后,系統提示“防火墻在系統啟動時自動禁用”。
    ⑤重啟虛擬機
    sudo reboot now

  7. 安裝SSH并設置無密碼登錄
    ①安裝OpenSSH
    sudo apt-get install ssh openssh-server
    中途按y繼續
    ②確認sshserver是否啟動
    sudo ps -e | grep sshd
    ③生成RSA密鑰(包括私鑰和公鑰)
    ssh-keygen -t rsa
    回車后會在~/.ssh/下生成兩個文件:id_rsa和id_rsa.pub這兩個文件是成對出現的
    ④將新生成的公鑰復制到已授權密鑰列表
    進入~/.ssh/目錄下,將id_rsa.pub追加到authorized_keys授權文件中,開始是沒有authorized_keys文件的
    cd ~/.ssh
    cat id_rsa.pub >> authorized_keys
    ⑤將生成的authorized_keys文件拷貝到slave1主機相同的文件夾下
    scp authorized_keys master:~/.ssh/

  8. 安裝Hadoop
    ①解壓安裝
    在hadoop的官網上下載:http://hadoop.apache.org/下載hadoop-2.7.2.tar.gz
    將壓縮包放在物理機的共享文件夾中,打開虛擬機,進入共享文件夾/mnt/hgfs/
    輸入命令解壓安裝包到/usr/local/下
    sudo tar -zxvf hadoop-2.7.2.tar.gz -C /usr/local/
    ②修改環境變量
    sudo gedit /usr/local/hadoop-2.7.2/etc/hadoop/hadoop-env.sh
    打開后
    替換exportJAVA_HOME=${JAVA_HOME}為如下:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    同樣,配置yarn-env.sh(YARN資源管理器,管理的是HADOOP集群中的主從節點資源,YARN不需要安裝,它是HADOOP自帶的,通過配置起作用)
    在里面加入:
    export JAVA_HOME=/usr/local/jdk1.8.0_65
    ③為運行Hadoop創建目錄
    Hadoop運行在Linux操作系統之上,它直接使用Linux的本地文件系統來存儲HDFS的相關信息。因此,必須為Hadoop集群的每個節點創建相同目錄結構,操作命令如下。
    mkdir ~/dfs #在Linux文件系統中構建HDFS的統一入口位置
    mkdir ~/dfs/tmp #創建tmp目錄,用于保存HDFS工作時的臨時信息
    mkdir ~/dfs/data #創建data目錄,存儲HDFS的用戶文件的數據塊
    mkdir ~/dfs/name #創建name目錄,存儲HDFS的元數據信息

  9. 配置偽分布式模式
    ①打開core-site.xml文件
    sudo gedit /usr/local/hadoop-2.7.2/etc/hadoop/core-site.xml
    然后在“<configuration>”和“</configuration>”標簽之間輸入以下內容并保存。

    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
    <description>HDFS的URI,master為主節點的主機名</description>
</property>
<property>
    <name>io.file.buffer.size </name>
    <value>130172</value>
    <description>文件緩存大小</description>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/dfs/tmp</value>
    <description>namenode工作時的臨時文件夾</description>
</property>```
②打開hdfs-site.xml文件
sudo  gedit  /usr/local/hadoop-2.7.2/etc/hadoop/hdfs-site.xml
然后在“<configuration>”和“</configuration>”標簽之間輸入以下內容并保存。
```<property>
    <name>dfs.namenode.name.dir </name>
    <value>file:/home/hadoop/dfs/name</value>
    <description>NameNode上HDFS名字空間元數據的存儲位置</description> 
</property>
<property>
    <name>dfs.datanode.data.dir </name>
    <value> file:/home/hadoop/dfs/data </value>
    <description>DataNode數據塊的物理存儲位置</description>
</property>
<property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>副本個數,默認是3,應小于DataNode節點數量</description>
</property>
<property>
    <name>dfs.http.address</name>
    <value>master:50070</value>
    <description>HDFS Web UI的入口URL</description>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>master:50090</value>
    <description>可查看SecondaryNameNode守護進程的狀態信息</description>
</property>```
③打開yarn-site.xml文件
sudo  gedit  /usr/local/hadoop-2.7.2/etc/hadoop/yarn-site.xml
然后在“<configuration>”和“</configuration>”標簽之間輸入以下內容并保存。
```<property>
  <name>yarn.resourcemanager.address</name>
  <value>master:18040</value>
</property>
<property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>master:18041</value>
</property>
<property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>master:18042</value>
</property>
<property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>master:18043</value>
</property>
<property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>master:8088</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>```
④打開mapred -site.xml文件
sudo  cp  mapred-site.xml.template  mapred-site.xml
sudo  gedit  mapred-site.xml
然后在“<configuration>”和“</configuration>”標簽之間輸入以下內容并保存。
```<property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
</property>
<property>
   <name>mapreduce.jobhistory.address </name>
   <value> master:10020</value>
</property>
<property>
   <name>mapreduce.jobhistory.webapp.address </name>
   <value> master:19888</value>
</property>```

10. HDFS格式化
    初次運行的初始化
進入hadoop的根目錄后輸入以下命令
./bin/hdfs  namenode  -format

11. 啟動hadoop
    cd  /usr/local/hadoop-2.7.2
sbin/start-dfs.sh
sbin/start-yarn.sh
    或
sbin/start-all.sh
在master機上輸入jps

12. 測試
可以在web  UI中做測試:
在瀏覽其中輸入:[http://master:8088](http://master:8088)可以看到hadoop的信息。
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,825評論 6 546
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,814評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,980評論 0 384
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 64,064評論 1 319
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,779評論 6 414
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,109評論 1 330
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,099評論 3 450
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,287評論 0 291
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,799評論 1 338
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,515評論 3 361
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,750評論 1 375
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,221評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,933評論 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,327評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,667評論 1 296
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,492評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,703評論 2 380

推薦閱讀更多精彩內容