Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala idea sbt java.lang.NoClassDefFoundError:org/apache/spark/SparkConf_Scala_Apache Spark_Sbt - Fatal编程技术网

Scala idea sbt java.lang.NoClassDefFoundError:org/apache/spark/SparkConf

Scala idea sbt java.lang.NoClassDefFoundError:org/apache/spark/SparkConf,scala,apache-spark,sbt,Scala,Apache Spark,Sbt,我是spark的初学者。我使用“linux+idea+sbt”构建了一个环境,当我尝试spark的快速启动时,我遇到了以下问题: Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf at test$.main(test.scala:11) at test.main(test.scala) at sun.reflect.NativeMethodAc

我是spark的初学者。我使用“linux+idea+sbt”构建了一个环境,当我尝试spark的快速启动时,我遇到了以下问题:

    Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
    at test$.main(test.scala:11)
    at test.main(test.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 7 more
“我的磁盘”中的版本:

sbt   = 0.13.11
jdk   = 1.8
scala = 2.10
idea  = 2016
我的目录结构:

test/
  idea/
  out/
  project/
    build.properties    
    plugins.sbt
  src/
    main/
      java/
      resources/
      scala/
      scala-2.10/
        test.scala
  target/
  assembly.sbt
  build.sbt
在build.properties中:

sbt.version = 0.13.8
在plugins.sbt中:

logLevel := Level.Warn

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2")
In build.sbt:

import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._

name := "test"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"
在assembly.sbt中:

import AssemblyKeys._ // put this at the top of the file

assemblySettings
在test.scala中:

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object test {
  def main(args: Array[String]) {
    val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
    val conf = new SparkConf().setAppName("Test Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
  }
}
如何解决此问题。

具有
“提供的”
范围的依赖项仅在编译和测试期间可用,在运行时或打包时不可用。因此,与使用
main
创建对象
test
不同,您应该将其作为实际的测试套件放置在
src/test/scala
中(如果您不熟悉scala中的单元测试,我建议使用ScalaTest,例如。首先在build.sbt:
libraryDependencies+=“org.ScalaTest%”中添加对它的依赖关系“scalatest”%“2.2.4”%Test
,然后执行此操作以实现一个简单的规范)



另一个选择,在我看来是相当骇客的(但还是有技巧的),包括在某些配置中从您的
spark core
依赖项中删除
提供的
作用域,并在的公认答案中进行了描述。

我今天早上遇到了与提供的错误相同的问题。我删除了“提供的”然后运行sbt清理、重新加载、编译、打包、运行。我还使用spark从命令行提交测试。但我认为“提供的”,即代码上的额外开销,jar更少。

在intelliJ版本2018.1中,运行配置中有一个复选框,名为“包含提供的范围的依赖项”。选中此选项为我解决了这个问题。

我有一个Scala类的问题
src/main/Scala/app/main.Scala
。一切看起来都很好,应用程序得到了执行,但我无法实例化
ScparkConf()
,因为我还得到了一个
NoClassDefFoundError
。下面是在依赖项管理中使用
提供的
。我不太明白的是,在我看来,这似乎应该像这样工作。因此,我是否应该删除提供的
,或者即使设置了此标志,我也可以执行此操作?此选项仍在v2020中。1此答案有效,但您需要找到此选项,因为它根据您的IntelliJ版本位于不同的位置。您可以像搜索intellij一样搜索它,包括具有提供范围的依赖项。