spark安装须知:SPARK_DIST_CLASSPATH配置
请注意,Spark2.x是用Scala2.11预构建的,但2.4.2版本除外,它是用Scala2.12预构建的。Smark3.0+是用Scala2.12预构建的。spark-env.sh中配置:export SPARK_DIST_CLASSPATH=$(/opt/bigdata/hadoop-2.9.2/bin/hadoop classpath)有了SPARK_DIST_CLASSPATH配置信息
·
请注意,Spark2.x是用Scala2.11预构建的,但2.4.2版本除外,它是用Scala2.12预构建的。Smark3.0+是用Scala2.12预构建的。spark-env.sh
中配置:
export SPARK_DIST_CLASSPATH=$(/opt/bigdata/hadoop-2.9.2/bin/hadoop classpath)
有了SPARK_DIST_CLASSPATH配置信息以后,Spark就可以把数据存储到Hadoop分布式文件系统HDFS中,也可以从HDFS中读取数据。如果没有配置上面信息,Spark就只能读写本地数据,无法读写HDFS数据。
更多推荐
所有评论(0)