Apache spark 未找到spark单机群集jar

Apache spark 未找到spark单机群集jar,apache-spark,Apache Spark,我有一个spark独立集群,有一个主节点和两个工作节点。(希望我没有弄错术语)。都是centos 我有一个包含文本文件的共享文件夹和一个用于所有结果文件的共享文件夹。我不使用hdfs。。。 我在主机上还有一个包含wordcount.jar文件的文件夹。。。 我想对共享文件夹中的文件重新运行word count。。。 当我运行spark submit时,部署模式客户端指向主机上的wordcount.jar,一切正常,但是当我使用部署模式集群时,我得到一个错误wordcount.jar找不到。。。

我有一个spark独立集群,有一个主节点和两个工作节点。(希望我没有弄错术语)。都是centos 我有一个包含文本文件的共享文件夹和一个用于所有结果文件的共享文件夹。我不使用hdfs。。。 我在主机上还有一个包含wordcount.jar文件的文件夹。。。 我想对共享文件夹中的文件重新运行word count。。。 当我运行spark submit时,部署模式客户端指向主机上的wordcount.jar,一切正常,但是当我使用部署模式集群时,我得到一个错误wordcount.jar找不到。。。 为什么?我怎么修理它? 我认为jar文件分布在集群中。。。
感谢您在群集模式下执行时包含驱动程序类路径

--driver-class-path $JARS_COLON_SEP \ 

我已经包括了类路径。。不能解决问题