Spark 開發(fā)環(huán)境搭建(五)- Scala和Spark安裝

五、Scala 和Spark 安裝

Scala的安裝比較簡(jiǎn)單,下載安裝包,解壓,然后配置環(huán)境變量即可使用。

1. Scala 安裝

下載Scala http://www.scala-lang.org/download/2.11.6.html
為保持統(tǒng)一,我們將安裝的程序都放在/usr目錄下,在/usr目錄下創(chuàng)建Scala文件夾

sudo mkdir /usr/scala

解壓

tar zxvf scala-2.11.6.tgz
sudo mv scala-2.11.6.tgz /usr/scala/

在/etc/profile中添加scala環(huán)境變量

sudo vim /etc/profile

添加以下內(nèi)容:

export SCALA_HOME=/usr/scala/scala-2.11.6
export PATH=$PATH:$SCALA_HOME/bin

使修改立刻生效:

source /etc/profile

測(cè)試Scala是否安裝成功

scala -version // 查看Scala的版本
Scala運(yùn)行測(cè)試

2. Spark安裝

spark的安裝和hadoop有些相近,添加環(huán)境變量,修改配置文件。

2.1 spark下載

下載spark:http://www-eu.apache.org/dist/spark/spark-1.6.2/
這里我們下載:spark-1.6.2-bin-hadoop2.6.tgz
我的程序放置路徑為:

程序路徑.png

解壓:

tar zxvf spark-1.6.2-bin-hadoop2.6.tgz

2.2 添加環(huán)境變量

在/etc/profile中添加spark環(huán)境變量,如下:

export SPARK_HOME=/home/hadoop/package/spark-1.6.2-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin

是的修改立刻生效

source /etc/profile

2.3 修改配置文件

配置文件在spark-1.6.2-bin-hadoop2.6/conf 文件夾下,因此進(jìn)入文件配置

2.3.1 修改spark-env.sh

conf文件下只有spark-env.sh.template,因此我們copy一份

cp spark-env.sh.template spark-env.sh

該文件中是一個(gè)模板文件里面有沒有配置,我們?cè)倨渲刑砑觠ava,Scala,hadoop,spark的環(huán)境變量,以使其能夠正常到運(yùn)行,具體添加內(nèi)容為:

export JAVA_HOME=/usr/java/jdk1.8.0_91
export SCALA_HOME=/usr/scala/scala-2.11.6
export SPARK_MASTER=192.168.56.112
export SPARK_WORKER_MEMORY=1g
export HADOOP_HOME=/home/hadoop/package/hadoop-2.7.2/etc/hadoop

2.3.2 修改slaves

操作步驟同上,

cp slaves.template slaves

添加以下內(nèi)容:

master
slave1
slave2

至此所有安裝都已完成,剩下的就是用同樣的方法去配置另外的機(jī)器,由于其他機(jī)器是clone出來的,所以路徑都一樣,直接將 配置好的spark文件夾和/usr/scala 文件夾和環(huán)境變量文件/etc/profile,copy到其他機(jī)器即可。

3. 測(cè)試spark集群

在master機(jī)器上啟動(dòng)hadoop

./hadoop-2.7.2/sbin/start-all.sh

啟動(dòng)spark

./spark-1.6.2-bin-hadoop2.6/sbin/start-all.sh

如果不出問題的話,此時(shí)你的spark集群已經(jīng)成功啟動(dòng),查看集群情況,

http://192.168.56.112:8080/   // ip換成你自己的master地址

會(huì)出現(xiàn)一下界面,

集群監(jiān)控界面

如果你跟著教程走到了這一步,那么恭喜你已經(jīng)進(jìn)入大數(shù)據(jù)開發(fā)的海洋,我也是一名初學(xué)者,以后還會(huì)繼續(xù)發(fā)布spark學(xué)習(xí)相關(guān)的文章,還望繼續(xù)支持。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容