Apache spark Spark上下文不会在Scala Spark Shell中自动创建
我在一本书中读到: 驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型 sc 当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗 我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片: 我相信我已经在scala spark shell中,正如您可以在我的cmd窗口顶部看到的,指示bin\spark shellApache spark Spark上下文不会在Scala Spark Shell中自动创建,apache-spark,Apache Spark,我在一本书中读到: 驱动程序通过SparkContext对象访问Spark,SparkContext对象表示 连接到计算群集。在shell中,会自动为您创建一个SparkContext作为名为sc的变量。请尝试打印sc以查看其类型 sc 当我输入sc时,它会给我一个错误20值sc not found。你知道为什么sc不能在我的scala spark shell中自动创建吗 我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个spark上下文。请看图片: 我相信我已经在scala
请告知。谢谢希望你能找到你问题的答案,因为我也遇到了同样的问题 同时,使用此解决方法。在scala spark shell中,输入: