Apache spark spark.Thread.jars和spark.Thread.archive是否都未设置,而是返回到spark_HOME matter下的上载库?
我们正在Amazon Elastic Map Reduce上运行一个大型Spark应用程序。我一直在努力删除日志文件中的所有警告消息。这是剩下的两个问题之一:Apache spark spark.Thread.jars和spark.Thread.archive是否都未设置,而是返回到spark_HOME matter下的上载库?,apache-spark,Apache Spark,我们正在Amazon Elastic Map Reduce上运行一个大型Spark应用程序。我一直在努力删除日志文件中的所有警告消息。这是剩下的两个问题之一: 19/03/21 14:08:09 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME. 这有关系吗?如果是这样,我如何摆脱它?请参阅,如果不设置此
19/03/21 14:08:09 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME.
这有关系吗?如果是这样,我如何摆脱它?请参阅,如果不设置此项,则应用程序在启动期间会有开销,并且会延迟几秒钟,因为JAR需要分发给工作人员。在我看来没什么大不了的