Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/maven/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 如何设置spark环境?_Scala_Maven_Apache Spark_Bigdata - Fatal编程技术网

Scala 如何设置spark环境?

Scala 如何设置spark环境?,scala,maven,apache-spark,bigdata,Scala,Maven,Apache Spark,Bigdata,我对scala和spark都是新手,我正在使用Intellij运行spark应用程序。 这是一个使用scala激发的helloworld。 我从你那里得到了密码 即使在使用maven为spark进行设置之后,我也会遇到这些错误 Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 16/11/02 22:31:22 INFO SparkContext: Running Spark versi

我对scala和spark都是新手,我正在使用Intellij运行spark应用程序。 这是一个使用scala激发的helloworld。 我从你那里得到了密码 即使在使用maven为spark进行设置之后,我也会遇到这些错误

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
16/11/02 22:31:22 INFO SparkContext: Running Spark version 1.6.0
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
    at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<init>(DefaultMetricsSystem.java:38)
    at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<clinit>(DefaultMetricsSystem.java:36)
    at org.apache.hadoop.security.UserGroupInformation$UgiMetrics.create(UserGroupInformation.java:99)
    at org.apache.hadoop.security.UserGroupInformation.<clinit>(UserGroupInformation.java:192)
    at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
    at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
    at scala.Option.getOrElse(Option.scala:121)
    at org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2136)
    at org.apache.spark.SparkContext.<init>(SparkContext.scala:322)
    at HelloWorld$.main(HelloWorld.scala:14)
    at HelloWorld.main(HelloWorld.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
Caused by: java.lang.ClassNotFoundException: org.apache.commons.configuration.Configuration
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 16 more
使用Spark的默认log4j配置文件:org/apache/Spark/log4j-defaults.properties
16/11/02 22:31:22信息SparkContext:运行Spark版本1.6.0
线程“main”java.lang.NoClassDefFoundError中出现异常:org/apache/commons/configuration/configuration
位于org.apache.hadoop.metrics2.lib.DefaultMetricsSystem。(DefaultMetricsSystem.java:38)
位于org.apache.hadoop.metrics2.lib.DefaultMetricsSystem。(DefaultMetricsSystem.java:36)
位于org.apache.hadoop.security.UserGroupInformation$UgiMetrics.create(UserGroupInformation.java:99)
位于org.apache.hadoop.security.UserGroupInformation。(UserGroupInformation.java:192)
位于org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
位于org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
位于scala.Option.getOrElse(Option.scala:121)
位于org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2136)
位于org.apache.spark.SparkContext(SparkContext.scala:322)
位于HelloWorld$.main(HelloWorld.scala:14)
位于HelloWorld.main(HelloWorld.scala)
在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处
位于sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中
位于java.lang.reflect.Method.invoke(Method.java:498)
位于com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
原因:java.lang.ClassNotFoundException:org.apache.commons.configuration.configuration
位于java.net.URLClassLoader.findClass(URLClassLoader.java:381)
位于java.lang.ClassLoader.loadClass(ClassLoader.java:424)
位于sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
位于java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 还有16个

我知道这是一个非常简单的错误,但我尝试了几乎所有的web链接,仍然无法获得解决方案。

您能提供您正在使用的示例代码吗?更改依赖项,对于spark 2.0
libraryDependencies+=“org.apache.spark”%%“spark-core_2.11”%%“2.0.0”
。spark 1.0
libraryDependencies+=“org.apache.spark”%%“spark-core_2.10”%%“1.6.0”
您的spark版本是什么?您好,我正在使用org.apache.spark-core_2.10 1.6.0。代码的github链接是:您能提供您正在使用的示例代码吗?更改依赖项,对于spark 2.0
libraryDependencies+=“org.apache.spark”%%“spark-core_2.11”%%“2.0.0”
。spark 1.0
libraryDependencies+=“org.apache.spark”%%“spark-core_2.10”%%“1.6.0”
您的spark版本是什么?您好,我正在使用org.apache.spark-core_2.10 1.6.0代码的github链接是