我们使用命令/ home / ubuntu / spark / bin / spark-submit –master yarn –deploy-mode cluster –class“SimpleApp”/ home / ubuntu / spark / examples / src / main / scala / sbt / target / scala-2.11 / teste_2.11-1.0.jar …
如果我没有错,那么Spark正在考虑将您的本地文件系统作为其默认文件系统,这就是您遇到此错误的原因。配置应该传递到Spark上下文中,您应该提到 HADOOP_CONF_DIR 在 spark-env.sh 文件在所有节点中。确保 HADOOP_CONF_DIR 在所有节点中指定
HADOOP_CONF_DIR
spark-env.sh
val spCont = <Spark Context> val config = spCont.hadoopConfiguration config.addResource(new Path(s"${HADOOP_HOME}<path to core-site.xml>"))