1.Spark启动警告:neither spark.yarn.jars not spark.yarn.archive is set,falling back to uploading libraries under SPARK_HOME
原因:
如果没设置spark.yarn.jars,每次提交到yarn,都会把$SPARK_HOME/jars打包成zip文件上传到HDFS对应的用户目录。而spark.yarn.jars可以指定HDFS某路径下包为公共依赖包,从而提高spark应用提交效率,节省空间
解决:
1.在HDFS创建目录 /spark/jars
2.将$SPARK_HOME/jars下所有包上传到hdfs目录 /spark/jars
3.在spark-defaults.conf 中增加配置
spark.yarn.jars hdfs://hostname/spark/jars/*
---------------------
作者:shengpli
来源:CSDN
原文:https://blog.csdn.net/qq_23146763/article/details/70843913
版权声明:本文为博主原创文章,转载请附上博文链接!