从apache Spark运行java程序时发现ClassNotFound异常

从apache Spark运行java程序时发现ClassNotFound异常,java,hadoop,apache-spark,pyspark,Java,Hadoop,Apache Spark,Pyspark,我已经编译了Java程序并试图使用spark运行,但它显示了ClassNotFoundException,即使存在类文件 您必须写出类的确切名称,首字母为j小写: JavaHelloWorld如果您以文本而不是图像的形式发布代码和堆栈跟踪会更好。该类是否在spark-examples-1.1.10-hadoop1.0.4.jar中?因为找不到。是的。它位于spark-examples-1.1.10内 package org.apache.spark.examples; impo

我已经编译了Java程序并试图使用spark运行,但它显示了ClassNotFoundException,即使存在类文件


您必须写出类的确切名称,首字母为
j
小写:


JavaHelloWorld

如果您以文本而不是图像的形式发布代码和堆栈跟踪会更好。该类是否在spark-examples-1.1.10-hadoop1.0.4.jar中?因为找不到。是的。它位于spark-examples-1.1.10内
    package org.apache.spark.examples;

    import org.apache.spark.SparkConf;
    import org.apache.spark.api.java.JavaRDD;
    import org.apache.spark.api.java.JavaSparkContext;
    import org.apache.spark.api.java.function;  

    public final class JavaHelloWorld
    {
         public static void main(String args[])throws Exception
         {

         SparkConf sparkConf = new SparkConf().setAppName("JavaSparkPi");
         JavaSparkContext jsc = new JavaSparkContext(sparkConf);
         System.out.println("Hello World... Niyat From Apache Spark");
         }
    }