Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/jsp/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark Spark上下文不会在Scala Spark Shell中自动创建_Apache Spark - Fatal编程技术网

Apache spark Spark上下文不会在Scala Spark Shell中自动创建

Apache spark Spark上下文不会在Scala Spark Shell中自动创建,apache-spark,Apache Spark,我在一本书中读到: 驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型 sc 当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗 我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片: 我相信我已经在scala

我在一本书中读到:

驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型

sc

当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗

我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片:

我相信我已经在scala spark shell中,正如您可以在我的cmd窗口顶部看到的,指示bin\spark shell


请告知。谢谢

希望你能找到你问题的答案,因为我也遇到了同样的问题

同时,使用此解决方法。在scala spark shell中,输入:

  • 导入org.apache.spark.SparkContext
  • val sc=SparkContext.getOrCreate()
  • 然后您就可以访问sc