Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark jupyter笔记本名称错误:未定义名称“sc”_Apache Spark_Pyspark_Jupyter - Fatal编程技术网

Apache spark jupyter笔记本名称错误:未定义名称“sc”

Apache spark jupyter笔记本名称错误:未定义名称“sc”,apache-spark,pyspark,jupyter,Apache Spark,Pyspark,Jupyter,我使用了jupyter笔记本,pyspark,然后,我的第一个命令是: rdd = sc.parallelize([2, 3, 4]) 然后,它表明 NameError Traceback (most recent call last) <ipython-input-1-c540c4a1d203> in <module>() ----> 1 rdd = sc.parallelize([2, 3, 4]) NameError: name 'sc' is not d

我使用了jupyter笔记本,pyspark,然后,我的第一个命令是:

rdd = sc.parallelize([2, 3, 4])
然后,它表明

NameError Traceback (most recent call last)
<ipython-input-1-c540c4a1d203> in <module>()
----> 1 rdd = sc.parallelize([2, 3, 4])

NameError: name 'sc' is not defined.
如何修复此错误“sc”未定义。

您是否初始化了SparkContext

你可以试试这个:

#Initializing PySpark
from pyspark import SparkContext, SparkConf

# #Spark Config
conf = SparkConf().setAppName("sample_app")
sc = SparkContext(conf=conf)
你初始化SparkContext了吗

你可以试试这个:

#Initializing PySpark
from pyspark import SparkContext, SparkConf

# #Spark Config
conf = SparkConf().setAppName("sample_app")
sc = SparkContext(conf=conf)

你导入了SparkContext吗?不清楚PySpark内核是如何加载的。我使用了终端,首先更改为spark的根,然后在终端中键入PySpark以加载spark。PySpark加载spark上下文。Jupyter不会,除非您将其设置为doSOI,否则我会遇到同样的问题,最后我发现,由于python版本错误,您是否导入了SparkContext?不清楚PySpark内核是如何加载的。我使用了终端,首先更改为spark的根,然后在终端中键入PySpark以加载spark。PySpark加载spark上下文。Jupyter不会,除非你把它设置成做soI,否则我也会有同样的问题,最后我发现,因为python版本是错误的,我就像你说的那样。在我运行sc=SparkContextconf=conf之后,它显示:ValueError:不能同时运行多个SparkContexts;可能还有其他Spark运行的实例。我建议您取消所有会话,然后再试一次。Kartikkanapur的建议解决了我的类似问题。谢谢你,卡蒂坎纳普尔!我照你说的做了。在我运行sc=SparkContextconf=conf之后,它显示:ValueError:不能同时运行多个SparkContexts;可能还有其他Spark运行的实例。我建议您取消所有会话,然后再试一次。Kartikkanapur的建议解决了我的类似问题。谢谢你,卡蒂坎纳普尔!