Spark On YARN 集群安裝部署

軟件環境

Ubuntu 16.04 LTS
Hadoop: 2.6.5
Spark: 1.3.0

0 寫在前面

本例中的演示均為非 root 權限,所以有些命令行需要加 sudo,如果你是 root 身份運行,請忽略 sudo。下載安裝的軟件建議都放在 home 目錄之上,比如~/workspace中,這樣比較方便,以免權限問題帶來不必要的麻煩。

1 環境準備

修改主機名

搭建1個master,2個slave的集群方案。首先修改主機名vi /etc/hostname,在master上修改為master,其中一個slave上修改為slave1,另一個同理。

設置靜態IP

在終端中輸入:

vi /etc/sysconfig/network-scripts/ifcfg-eth0

開始編輯,填寫ip地址、子網掩碼、網關、DNS等。其中“紅框內的信息”是必須得有的。

編輯完后,保存退出。重啟網絡服務

service network restart

/etc/init.d/network restart

ping網關,ping外網進行測試。都能ping通表示網絡正常。

若沒有設置成功,可以在桌面環境在右擊網絡屬性進行設置。

配置hosts

在每臺主機上修改host文件(如果有三列,最后一列是主機別名)

vi /etc/hosts
10.1.1.107? ? ? master
10.1.1.108? ? ? slave1
10.1.1.109? ? ? slave2

配置之后ping一下用戶名看是否生效

ping slave1
ping slave2

SSH 免密碼登錄

安裝Openssh server

sudo apt-get install openssh-server

在所有機器上都生成私鑰和公鑰

ssh-keygen -t rsa? #一路回車

需要讓機器間都能相互訪問,就把每個機子上的id_rsa.pub發給master節點,傳輸公鑰可以用scp來傳輸。

scp ~/.ssh/id_rsa.pub spark@master:~/.ssh/id_rsa.pub.slave1

在master上,將所有公鑰加到用于認證的公鑰文件authorized_keys中

cat ~/.ssh/id_rsa.pub* >> ~/.ssh/authorized_keys

將公鑰文件authorized_keys分發給每臺slave

scp ~/.ssh/authorized_keys spark@slave1:~/.ssh/

在每臺機子上驗證SSH無密碼通信

ssh master
ssh slave1
ssh slave2

如果登陸測試不成功,則可能需要修改文件authorized_keys的權限(權限的設置非常重要,因為不安全的設置安全設置,會讓你不能使用RSA功能 )

chmod 600 ~/.ssh/authorized_keys

安裝 Java

從官網下載最新版 Java 就可以,Spark官方說明 Java 只要是6以上的版本都可以,我下的是 jdk-7u75-linux-x64.gz

在~/workspace目錄下直接解壓

tar -zxvf jdk-7u75-linux-x64.gz

修改環境變量sudo vi /etc/profile,添加下列內容,注意將home路徑替換成你的:

export WORK_SPACE=/home/spark/workspace/
export JAVA_HOME=$WORK_SPACE/jdk1.7.0_75
export JRE_HOME=/home/spark/work/jdk1.7.0_75/jre
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

然后使環境變量生效,并驗證 Java 是否安裝成功

$ source /etc/profile? #生效環境變量
$ java -version? ? ? ? #如果打印出如下版本信息,則說明安裝成功
java version "1.7.0_75"
Java(TM) SE Runtime Environment (build 1.7.0_75-b13)
Java HotSpot(TM) 64-Bit Server VM (build 24.75-b04, mixed mode)

安裝 Scala

Spark官方要求 Scala 版本為 2.10.x,注意不要下錯版本,我這里下了 2.10.4,官方下載地址(http://www.scala-lang.org/download/2.10.4.html)。

同樣我們在~/workspace中解壓

tar -zxvf scala-2.10.4.tgz

再次修改環境變量sudo vi /etc/profile,添加以下內容:

export SCALA_HOME=$WORK_SPACE/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin

同樣的方法使環境變量生效,并驗證 scala 是否安裝成功

$ source /etc/profile? #生效環境變量
$ scala -version? ? ? ? #如果打印出如下版本信息,則說明安裝成功
Scala code runner version 2.10.4 -- Copyright 2002-2013, LAMP/EPFL

安裝配置 Hadoop YARN

從這部分起,主要在master上操作,再把配置分發給slave,要保證所以機子的配置是一樣的

下載解壓

從官網(http://hadoop.apache.org/releases.html#Download)下載 hadoop2.6.0 版本

同樣我們在~/workspace中解壓

tar -zxvf hadoop-2.6.0.tar.gz

配置 Hadoop

注意路徑要修改為自己的路徑,cd ~/workspace/hadoop-2.6.0/etc/hadoop進入hadoop配置目錄,需要配置有以下7個文件:hadoop-env.sh,yarn-env.sh,slaves,core-site.xml,hdfs-site.xml,maprd-site.xml,yarn-site.xml。若找不到對應的配置文件,查看是否有.template的模板文件,去掉其.template的后綴名。

1.在hadoop-env.sh中配置JAVA_HOME

# The java implementation to use.
export JAVA_HOME=/home/spark/workspace/jdk1.7.0_75

2.在yarn-env.sh中配置JAVA_HOME

# some Java parameters
export JAVA_HOME=/home/spark/workspace/jdk1.7.0_75

3.在slaves中配置slave節點的ip或者host(如果要將master也設為工作節點,則多加一個master)

slave1
slave2

4.修改core-site.xml


5.修改hdfs-site.xml


6.修改mapred-site.xml


7.修改yarn-site.xml


將配置好的hadoop-2.6.5文件夾分發給所有slaves吧

scp -r ~/workspace/hadoop-2.6.5 spark@slave1:~/workspace/

啟動Hadoop

在 master 上執行以下操作,就可以啟動 hadoop 了。

cd ~/workspace/hadoop-2.6.0? ? #進入hadoop目錄
bin/hadoop namenode -format? ? #格式化namenode
sbin/start-dfs.sh? ? ? ? ? ? ? #啟動dfs
sbin/start-yarn.sh? ? ? ? ? ? ? #啟動yarn

驗證 Hadoop 是否安裝成功

可以通過jps命令查看各個節點啟動的進程是否正常。在 master 上應該有以下幾個進程:

$ jps? #run on master
3407 SecondaryNameNode
3218 NameNode
3552 ResourceManager
3910 Jps

在每個slave上應該有以下幾個進程:

$ jps? #run on slaves
2072 NodeManager
2213 Jps
1962 DataNode

或者在瀏覽器中輸入 http://master:8088 ,應該有 hadoop 的管理界面出來了,并能看到 slave1 和 slave2 節點。

注意:

若出現DataNode沒有啟動的問題,檢查hdfs-site.xml對應路徑下的namenode和datanode的clusterId是否一致,若不一致則修改datanode里的VERSION文件的clusterId;

若namenode不啟動,則重新格式化namenode,可以先刪除master主節點下的data, name, namesecondary三個文件夾,刪除mapred設置路徑對應下的四個文件夾,以及刪除所有logs文件,slave同理

2Spark安裝

下載解壓

進入官方(http://spark.apache.org/downloads.html)下載地址下載最新版 Spark。我下載的是 spark-1.3.0-bin-hadoop2.4.tgz。

在~/workspace目錄下解壓

tar -zxvf spark-1.3.0-bin-hadoop2.4.tgz
mv spark-1.3.0-bin-hadoop2.4 spark-1.3.0? ? #原來的文件名太長了,修改下

配置 Spark

cd ~/workspace/spark-1.3.0/conf? ? #進入spark配置目錄
cp spark-env.sh.template spark-env.sh? #從配置模板復制
vi spark-env.sh? ? #添加配置內容

在spark-env.sh末尾添加以下內容(這是我的配置,你可以自行修改):

export SCALA_HOME=/home/spark/workspace/scala-2.10.4
export JAVA_HOME=/home/spark/workspace/jdk1.7.0_75
export HADOOP_HOME=/home/spark/workspace/hadoop-2.6.5
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master
SPARK_LOCAL_DIRS=/home/spark/workspace/spark-1.3.0
SPARK_DRIVER_MEMORY=1G

注:在設置Worker進程的CPU個數和內存大小,要注意機器的實際硬件條件,如果配置的超過當前Worker節點的硬件條件,Worker進程會啟動失敗。

vi slaves在slaves文件下填上slave主機名(同理,master也可以加上):

slave1
slave2

將配置好的spark-1.3.0文件夾分發給所有slaves吧

啟動Spark

sbin/start-all.sh

驗證 Spark 是否安裝成功

用jps檢查,在 master 上應該有以下幾個進程:

$ jps
7949 Jps
7328 SecondaryNameNode
7805 Master
7137 NameNode
7475 ResourceManager

在 slave 上應該有以下幾個進程:

$jps
3132 DataNode
3759 Worker
3858 Jps
3231 NodeManager

進入Spark的Web管理頁面: http://master:8080

(注意有個safe-mode模式,可能需要關閉,需要另外查)


運行示例

#本地模式兩線程運行

./bin/run-example SparkPi 10 --master local[2]

#Spark Standalone 集群模式運行

./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://master:7077 \
lib/spark-examples-1.3.0-hadoop2.4.0.jar \
100

#Spark on YARN 集群上 yarn-cluster 模式運行

./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \? # can also be `yarn-client`
lib/spark-examples*.jar \
10

注意 Spark on YARN 支持兩種運行模式,分別為yarn-cluster和yarn-client,具體的區別可以看這篇博文,從廣義上講,yarn-cluster適用于生產環境;而yarn-client適用于交互和調試,也就是希望快速地看到application的輸出。

(另外,我配置完后,本地模式線程運行沒問題,但是在集群上跑的時候,不知道為什么,有時候slave的系統會重啟,有時候節點會斷開連接,如果有誰知道這有可能是什么原因導致的,請告知一下哈,萬分感謝!)

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,908評論 6 541
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,324評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,018評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,675評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,417評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,783評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,779評論 3 446
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,960評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,522評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,267評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,471評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,009評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,698評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,099評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,386評論 1 294
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,204評論 3 398
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,436評論 2 378

推薦閱讀更多精彩內容