Apache spark Spark上下文不会在Scala Spark Shell中自动创建

Apache spark Spark上下文不会在Scala Spark Shell中自动创建,apache-spark,Apache Spark,我在一本书中读到: 驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型 sc 当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗 我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片: 我相信我已经在scala

我在一本书中读到:

驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型

sc

当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗

我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片:

我相信我已经在scala spark shell中,正如您可以在我的cmd窗口顶部看到的,指示bin\spark shell


请告知。谢谢

希望你能找到你问题的答案,因为我也遇到了同样的问题

同时,使用此解决方法。在scala spark shell中,输入:

  • 导入org.apache.spark.SparkContext
  • val sc=SparkContext.getOrCreate()
  • 然后您就可以访问sc