Apache spark jupyter笔记本名称错误:未定义名称“sc”
我使用了jupyter笔记本,pyspark,然后,我的第一个命令是:Apache spark jupyter笔记本名称错误:未定义名称“sc”,apache-spark,pyspark,jupyter,Apache Spark,Pyspark,Jupyter,我使用了jupyter笔记本,pyspark,然后,我的第一个命令是: rdd = sc.parallelize([2, 3, 4]) 然后,它表明 NameError Traceback (most recent call last) <ipython-input-1-c540c4a1d203> in <module>() ----> 1 rdd = sc.parallelize([2, 3, 4]) NameError: name 'sc' is not d
rdd = sc.parallelize([2, 3, 4])
然后,它表明
NameError Traceback (most recent call last)
<ipython-input-1-c540c4a1d203> in <module>()
----> 1 rdd = sc.parallelize([2, 3, 4])
NameError: name 'sc' is not defined.
如何修复此错误“sc”未定义。您是否初始化了SparkContext
你可以试试这个:
#Initializing PySpark
from pyspark import SparkContext, SparkConf
# #Spark Config
conf = SparkConf().setAppName("sample_app")
sc = SparkContext(conf=conf)
你初始化SparkContext了吗
你可以试试这个:
#Initializing PySpark
from pyspark import SparkContext, SparkConf
# #Spark Config
conf = SparkConf().setAppName("sample_app")
sc = SparkContext(conf=conf)
你导入了SparkContext吗?不清楚PySpark内核是如何加载的。我使用了终端,首先更改为spark的根,然后在终端中键入PySpark以加载spark。PySpark加载spark上下文。Jupyter不会,除非您将其设置为doSOI,否则我会遇到同样的问题,最后我发现,由于python版本错误,您是否导入了SparkContext?不清楚PySpark内核是如何加载的。我使用了终端,首先更改为spark的根,然后在终端中键入PySpark以加载spark。PySpark加载spark上下文。Jupyter不会,除非你把它设置成做soI,否则我也会有同样的问题,最后我发现,因为python版本是错误的,我就像你说的那样。在我运行sc=SparkContextconf=conf之后,它显示:ValueError:不能同时运行多个SparkContexts;可能还有其他Spark运行的实例。我建议您取消所有会话,然后再试一次。Kartikkanapur的建议解决了我的类似问题。谢谢你,卡蒂坎纳普尔!我照你说的做了。在我运行sc=SparkContextconf=conf之后,它显示:ValueError:不能同时运行多个SparkContexts;可能还有其他Spark运行的实例。我建议您取消所有会话,然后再试一次。Kartikkanapur的建议解决了我的类似问题。谢谢你,卡蒂坎纳普尔!