Apache spark 停止所有现有的spark上下文

Apache spark 停止所有现有的spark上下文,apache-spark,pyspark,Apache Spark,Pyspark,我正在尝试使用pyspark创建一个新的Spark上下文,我得到以下结果: 警告SparkContext:正在构造(或抛出)另一个SparkContext 其构造函数中的异常)。这可能表示错误,因为 此JVM中只能运行一个SparkContext(请参阅SPARK-2243)。这个 其他SparkContext创建于: java.JavaSparkContext(JavaSparkContext.scala:61) 我没有任何其他上下文活动(理论上),但可能它没有正确完成,它仍然存在。我怎样才能

我正在尝试使用pyspark创建一个新的Spark上下文,我得到以下结果:

警告SparkContext:正在构造(或抛出)另一个SparkContext 其构造函数中的异常)。这可能表示错误,因为 此JVM中只能运行一个SparkContext(请参阅SPARK-2243)。这个 其他SparkContext创建于: java.JavaSparkContext(JavaSparkContext.scala:61)


我没有任何其他上下文活动(理论上),但可能它没有正确完成,它仍然存在。我怎样才能知道是否有其他的或杀死所有当前的?当您运行pyspark shell并在其中执行python脚本时,我使用的是spark 1.5.1

,例如,使用“execfile()”、SparkContext作为sc提供、HiveContext作为sqlContext提供。要在没有任何上下文的情况下运行python脚本,只需使用./bin/spark submit“your_python_file”。

您可以尝试终止或重新启动python内核。Hi@apeleteiro有什么解决方案吗?我也面临同样的问题