- 安裝JAVA, 配置好環(huán)境變量
下載地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_131.jdk/Contents/Home
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
- 下載Spark pre-build for Hadoop 版本的,配置環(huán)境變量
下載地址: https://spark.apache.org/downloads.html
export SPARK_HOME=/Blabla/spark-2.2.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
- 安裝 scala,配置環(huán)境變量
安裝指令:brew install scala
export SPARK_DEV=1
export SCALA_HOME=/usr/local/Cellar/scala
配置好之后 source 一下 bashrc ,
輸入命令 spark-shell
,看到控制臺(tái)輸出 welcome to spark
的相關(guān)信息
- Pycharm 相關(guān)配置
4.1 在相關(guān)項(xiàng)目的配置里面,增加
PYTHONPATH=/blabla/spark-2.2.0-bin-hadoop2.7/python
SPARK_HOME=/blabla/spark-2.2.0-bin-hadoop2.7
4.2 將 spark-2.2.0-bin-hadoop2.7/python/pyspark/ 復(fù)制到 Library/Python/2.7/site-packages 下面,這樣
代碼里面的 from pyspark.sql import SparkSession 就關(guān)聯(lián)到源碼,不會(huì)有錯(cuò)誤提示了