Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/18.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStream,Spark处于本地模式_Scala_Maven_Hadoop_Apache Spark_Apache Spark Mllib - Fatal编程技术网

Scala java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStream,Spark处于本地模式

Scala java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStream,Spark处于本地模式,scala,maven,hadoop,apache-spark,apache-spark-mllib,Scala,Maven,Hadoop,Apache Spark,Apache Spark Mllib,我以前在纱线簇模式中使用过Spark,到目前为止效果很好 然而,我想以“本地”模式运行它,所以我创建了一个简单的scala应用程序,通过maven添加spark作为依赖项,然后尝试像普通应用程序一样运行该应用程序 但是,在我尝试创建SparkConf对象的第一行中出现了上述异常 我不明白,为什么我需要hadoop来运行一个独立的spark应用程序。有人能指出这是怎么回事吗 我的两行应用程序: val sparkConf = new SparkConf().setMaster("local").

我以前在纱线簇模式中使用过Spark,到目前为止效果很好

然而,我想以“本地”模式运行它,所以我创建了一个简单的scala应用程序,通过maven添加spark作为依赖项,然后尝试像普通应用程序一样运行该应用程序

但是,在我尝试创建SparkConf对象的第一行中出现了上述异常

我不明白,为什么我需要hadoop来运行一个独立的spark应用程序。有人能指出这是怎么回事吗

我的两行应用程序:

 val sparkConf = new SparkConf().setMaster("local").setAppName("MLPipeline.AutomatedBinner")//.set("spark.default.parallelism", "300").set("spark.serializer", "org.apache.spark.serializer.KryoSerializer").set("spark.kryoserializer.buffer.mb", "256").set("spark.akka.frameSize", "256").set("spark.akka.timeout", "1000") //.set("spark.akka.threads", "300")//.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer") //.set("spark.akka.timeout", "1000")
 val sc = new SparkContext(sparkConf)
请参阅此链接,以获取有关此mat帮助您的答案!请参阅此链接,以获取有关此mat帮助您的答案!