Scala 如何设置spark环境?
我对scala和spark都是新手,我正在使用Intellij运行spark应用程序。 这是一个使用scala激发的helloworld。 我从你那里得到了密码 即使在使用maven为spark进行设置之后,我也会遇到这些错误Scala 如何设置spark环境?,scala,maven,apache-spark,bigdata,Scala,Maven,Apache Spark,Bigdata,我对scala和spark都是新手,我正在使用Intellij运行spark应用程序。 这是一个使用scala激发的helloworld。 我从你那里得到了密码 即使在使用maven为spark进行设置之后,我也会遇到这些错误 Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 16/11/02 22:31:22 INFO SparkContext: Running Spark versi
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
16/11/02 22:31:22 INFO SparkContext: Running Spark version 1.6.0
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<init>(DefaultMetricsSystem.java:38)
at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<clinit>(DefaultMetricsSystem.java:36)
at org.apache.hadoop.security.UserGroupInformation$UgiMetrics.create(UserGroupInformation.java:99)
at org.apache.hadoop.security.UserGroupInformation.<clinit>(UserGroupInformation.java:192)
at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
at scala.Option.getOrElse(Option.scala:121)
at org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2136)
at org.apache.spark.SparkContext.<init>(SparkContext.scala:322)
at HelloWorld$.main(HelloWorld.scala:14)
at HelloWorld.main(HelloWorld.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
Caused by: java.lang.ClassNotFoundException: org.apache.commons.configuration.Configuration
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 16 more
使用Spark的默认log4j配置文件:org/apache/Spark/log4j-defaults.properties
16/11/02 22:31:22信息SparkContext:运行Spark版本1.6.0
线程“main”java.lang.NoClassDefFoundError中出现异常:org/apache/commons/configuration/configuration
位于org.apache.hadoop.metrics2.lib.DefaultMetricsSystem。(DefaultMetricsSystem.java:38)
位于org.apache.hadoop.metrics2.lib.DefaultMetricsSystem。(DefaultMetricsSystem.java:36)
位于org.apache.hadoop.security.UserGroupInformation$UgiMetrics.create(UserGroupInformation.java:99)
位于org.apache.hadoop.security.UserGroupInformation。(UserGroupInformation.java:192)
位于org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
位于org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2136)
位于scala.Option.getOrElse(Option.scala:121)
位于org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2136)
位于org.apache.spark.SparkContext(SparkContext.scala:322)
位于HelloWorld$.main(HelloWorld.scala:14)
位于HelloWorld.main(HelloWorld.scala)
在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处
位于sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中
位于java.lang.reflect.Method.invoke(Method.java:498)
位于com.intellij.rt.execution.application.AppMain.main(AppMain.java:147)
原因:java.lang.ClassNotFoundException:org.apache.commons.configuration.configuration
位于java.net.URLClassLoader.findClass(URLClassLoader.java:381)
位于java.lang.ClassLoader.loadClass(ClassLoader.java:424)
位于sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
位于java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 还有16个
我知道这是一个非常简单的错误,但我尝试了几乎所有的web链接,仍然无法获得解决方案。您能提供您正在使用的示例代码吗?更改依赖项,对于spark 2.0
libraryDependencies+=“org.apache.spark”%%“spark-core_2.11”%%“2.0.0”
。spark 1.0libraryDependencies+=“org.apache.spark”%%“spark-core_2.10”%%“1.6.0”
您的spark版本是什么?您好,我正在使用org.apache.spark-core_2.10 1.6.0。代码的github链接是:您能提供您正在使用的示例代码吗?更改依赖项,对于spark 2.0libraryDependencies+=“org.apache.spark”%%“spark-core_2.11”%%“2.0.0”
。spark 1.0libraryDependencies+=“org.apache.spark”%%“spark-core_2.10”%%“1.6.0”
您的spark版本是什么?您好,我正在使用org.apache.spark-core_2.10 1.6.0代码的github链接是