从apache Spark运行java程序时发现ClassNotFound异常
我已经编译了Java程序并试图使用spark运行,但它显示了ClassNotFoundException,即使存在类文件从apache Spark运行java程序时发现ClassNotFound异常,java,hadoop,apache-spark,pyspark,Java,Hadoop,Apache Spark,Pyspark,我已经编译了Java程序并试图使用spark运行,但它显示了ClassNotFoundException,即使存在类文件 您必须写出类的确切名称,首字母为j小写: JavaHelloWorld如果您以文本而不是图像的形式发布代码和堆栈跟踪会更好。该类是否在spark-examples-1.1.10-hadoop1.0.4.jar中?因为找不到。是的。它位于spark-examples-1.1.10内 package org.apache.spark.examples; impo
您必须写出类的确切名称,首字母为
j
小写:
JavaHelloWorld
如果您以文本而不是图像的形式发布代码和堆栈跟踪会更好。该类是否在spark-examples-1.1.10-hadoop1.0.4.jar中?因为找不到。是的。它位于spark-examples-1.1.10内
package org.apache.spark.examples;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function;
public final class JavaHelloWorld
{
public static void main(String args[])throws Exception
{
SparkConf sparkConf = new SparkConf().setAppName("JavaSparkPi");
JavaSparkContext jsc = new JavaSparkContext(sparkConf);
System.out.println("Hello World... Niyat From Apache Spark");
}
}