GeoSpark 安裝

【之前一直都是在寫GeoSpark 相關(guān)算子以及使用場景的一些簡單說明,但是并沒有提及到如何去安裝GeoSpark。目前我個(gè)人經(jīng)常用的編程語言是Scala和Python,所以針對(duì)與這兩中語言的安裝方法做出一些指導(dǎo)說明】

  • Python安裝
  1. 符合的Python版本是3.6和3.7;
  2. 將Pip升級(jí)到最新版;
  3. 執(zhí)行以下安裝命令:
pip install geospark
  1. 安裝完之后,在使用過程中,你可能需要將geospark中的以下三個(gè)包放入到Pyspark目錄下的jars里面,如果再次出現(xiàn)問題,還需要將以下三個(gè)包放入到spark目錄下的jars里面。
geo_wrapper_2.11-0.3.0.jar
geospark-1.3.1.jar
geospark-sql_2.3-1.3.1.jar
  1. 在使用Python編寫的時(shí)候,第一步先將以下代碼添加上
import findspark
findspark.init()

結(jié)尾:以上就是Python 的安裝方法;
......................................................................................................................................

  • Scala的安裝方法:
    我用的是Gradle 管理工具,所以只需要在gradle文件中配置以下三個(gè)文件就行:
dependencies {
    compile group: 'org.apache.spark', name: 'spark-core_2.11', version: '2.3.3'
    compile group: 'org.apache.spark', name: 'spark-sql_2.11', version: '2.3.3'
    compile group: 'org.apache.spark', name: 'spark-streaming_2.11', version: '2.3.2'
    compile group: 'org.datasyslab', name: 'geospark', version: '1.3.1' #第一個(gè)文件
    compile group: 'org.datasyslab', name: 'geospark-sql_2.3', version: '1.3.1' #第二個(gè)文件
    compile group: 'org.datasyslab', name: 'geospark-viz_2.3', version: '1.3.1' #第三個(gè)文件
    compile group: 'org.apache.spark', name: 'spark-unsafe_2.11', version: '2.3.3'
}

如果你們采用的Maven 管理工具,那更簡單了:

groupId: org.datasyslab
artifactId: geospark
version: 1.3.2-SNAPSHOT

groupId: org.datasyslab
artifactId: geospark-sql_3.0
version: 1.3.2-SNAPSHOT

groupId: org.datasyslab
artifactId: geospark-viz_3.0
version: 1.3.2-SNAPSHOT

注意:一般來說,如果沒有安裝成功,在運(yùn)行的時(shí)候通常會(huì)出現(xiàn)以下錯(cuò)誤:
Java Package not found

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容