在spark-env.sh ,添加HADOOP_CONF_DIR配置,指明了hadoop的配置文件后,默認(rèn)它就是使用的hdfs上的文件
將配置好的
spark-env.sh
發(fā)送到node-2和node-3上,$PWD指代和node-1相同的當(dāng)前目錄在spark-env.sh ,添加HADOOP_CONF_DIR配置,指明了hadoop的配置文件后,默認(rèn)它就是使用的hdfs上的文件
spark-env.sh
發(fā)送到node-2和node-3上,$PWD指代和node-1相同的當(dāng)前目錄