Java 启动时发生Apache Spark错误

Java 启动时发生Apache Spark错误,java,scala,hadoop,Java,Scala,Hadoop,我想在ApacheSpark中启用单集群,我安装了java和scala。我下载了ApacheHadoop2.6的spark,并将其解包。我试图打开spark shell,但抛出了一个错误,此外,我无法访问shell中的sc。我从源代码处编译,但出现了相同的错误。我做错了什么 欢迎来到这里 ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/.版本1.3.1 /_/ 使用Scala版本2.10.4(

我想在ApacheSpark中启用单集群,我安装了java和scala。我下载了ApacheHadoop2.6的spark,并将其解包。我试图打开spark shell,但抛出了一个错误,此外,我无法访问shell中的sc。我从源代码处编译,但出现了相同的错误。我做错了什么

欢迎来到这里
____              __
/ __/__  ___ _____/ /__
_\ \/ _ \/ _ `/ __/  '_/
/___/.版本1.3.1
/_/
使用Scala版本2.10.4(Java热点(TM)64位服务器虚拟机,Java 1.7.079)
键入要计算的表达式。
键入:有关详细信息的帮助。
java.net.BindException:未能绑定到:ADMINISTRATOR.home/192.168.1.5:0:服务“sparkDriver”在重试16次后失败!
位于org.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272)
在akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:393)
在akka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:389)
在scala.util.Success$$anonfun$map$1.apply(Try.scala:206)
在scala.util.Try$.apply处(Try.scala:161)
在scala.util.Success.map(Try.scala:206)
在scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)
在scala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)
在scala.concurrent.impl.CallbackRunnable.run(Promise.scala:32)
在akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.processBatch$1(BatchingExecutor.scala:67)
在akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply$mcV$sp(BatchingExecutor.scala:82)
在akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59)
在akka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59)
位于scala.concurrent.BlockContext$.withBlockContext(BlockContext.scala:72)
在akka.dispatch.BatchingExecutor$Batch.run(BatchingExecutor.scala:58)
运行(AbstractDispatcher.scala:41)
在akka.dispatch.ForkJoinExecutorConfigurator$AkkaForkJoinTask.exec(AbstractDispatcher.scala:393)
位于scala.concurrent.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260)
位于scala.concurrent.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339)
位于scala.concurrent.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979)
在scala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107)中
java.lang.NullPointerException
位于org.apache.spark.sql.SQLContext(SQLContext.scala:145)
位于org.apache.spark.sql.hive.HiveContext(HiveContext.scala:49)
位于sun.reflect.NativeConstructorAccessorImpl.newInstance0(本机方法)
位于sun.reflect.NativeConstructorAccessorImpl.newInstance(未知源)
位于sun.reflect.delegatingConstructor或AccessorImpl.newInstance(未知源)
位于java.lang.reflect.Constructor.newInstance(未知源)
位于org.apache.spark.repl.sparkilop.createSQLContext(sparkilop.scala:1027)
在$iwC$$iwC。(:9)
$iwC。(:18)
时(20分)
在。(:24)
在
在。(:7)
在
$print()
在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处
位于sun.reflect.NativeMethodAccessorImpl.invoke(未知源)
在sun.reflect.DelegatingMethodAccessorImpl.invoke处(未知源)
位于java.lang.reflect.Method.invoke(未知源)
位于org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065)
位于org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1338)
在org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840)
在org.apache.spark.repl.SparkIMain.exploration上(SparkIMain.scala:871)
在org.apache.spark.repl.SparkIMain.exploration上(SparkIMain.scala:819)
在org.apache.spark.repl.SparkILoop.really上解释$1(SparkILoop.scala:856)
位于org.apache.spark.repl.SparkILoop.interpretatingstartingwith(SparkILoop.scala:901)
位于org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:813)
在org.apache.spark.repl.sparkilopinit$$anonfun$initializeSpark$1.apply上(sparkilopinit.scala:130)
在org.apache.spark.repl.sparkilopinit$$anonfun$initializeSpark$1.apply上(sparkilopinit.scala:122)
位于org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324)
位于org.apache.spark.repl.sparkilopinit$class.initializeSpark(sparkilopinit.scala:122)
位于org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64)
在org.apache.spark.repl.sparkilop$$anonfun$org$apache$spark$repl$sparkilop$$process$1$$anonfun$apply$mcZ$sp$5.apply$mcV$sp(sparkilop.scala:973)
位于org.apache.spark.repl.sparkilopinit$class.runThunks(sparkilopinit.scala:157)
位于org.apache.spark.repl.SparkILoop.runThunks(SparkILoop.scala:64)
在org.apache.spark.repl.sparkilopinit$class.postInitialization上(sparkilopinit.scala:106)
在org.apache.spark.repl.SparkILoop.postInitialization(SparkILoop.scala:64)上
在org.apache.spark.repl.sparkilop$$anonfun$org$apache$spark$repl$sparkilop$$process$1.apply$mcZ$sp(sparkilop.scala:990)
在org.apache.spark.repl.sparkilop$$anonfun$org$apache$spark$repl$sparkilop$$process$1.apply(sparkilop.scala:944)
在org.apache.spark.repl.sparkilop$$anonfun$org$apache$spark$repl$sparkilop$$process$1.apply(sparkilop.scala:944)
位于scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135)
位于org.apache.spark.repl.sparkloop.org$apache$spark$repl$sparkloop$$process(sparkloop.scala:944)
位于org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1058)
位于org.apache.spark.repl.Main$.Main(Main.scala:31)
位于org.apache.spark.repl.Main.Main(Main.scala)
在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处
位于sun.reflect.NativeMethodAccessorImpl.invoke(未知源)
在sun.reflect.DelegatingMethodAccessorImpl.invoke处(未知源)
位于java.lang.reflect.Method.invoke(未知源)
位于org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569)
位于org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166)
位于org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:189)
在组织
export  SPARK_MASTER_IP=127.0.0.1
export  SPARK_LOCAL_IP=127.0.0.1