Python 在Jupyter笔记本中运行Pyspark时,实现_数组函数方法已具有docstring
修复名称“sc”不是通过使用相关帖子中提到的解决方案定义的错误=>RuntimeError:implement\u array\u函数方法已经有一个docstring。Python 在Jupyter笔记本中运行Pyspark时,实现_数组函数方法已具有docstring,python,apache-spark,jupyter-notebook,Python,Apache Spark,Jupyter Notebook,修复名称“sc”不是通过使用相关帖子中提到的解决方案定义的错误=>RuntimeError:implement\u array\u函数方法已经有一个docstring。 在使用spark配置jupyter笔记本之后,我很兴奋地开始使用spark进行数据分析。但是第一次打嗝是名字“sc”没有定义。我相信在spark shell中,你不需要初始化任何东西,而在笔记本中,如果我错了,请纠正我(从阅读错误帖子中收集)。所以我也使用了和其他相关帖子的解决方案。所有人都给了我相同的错误运行时错误:实现数组函
在使用spark配置jupyter笔记本之后,我很兴奋地开始使用spark进行数据分析。但是第一次打嗝是名字“sc”没有定义。我相信在spark shell中,你不需要初始化任何东西,而在笔记本中,如果我错了,请纠正我(从阅读错误帖子中收集)。所以我也使用了和其他相关帖子的解决方案。所有人都给了我相同的错误运行时错误:实现数组函数方法已经有一个docstring 因此,进一步的调查使我认为Spark进程可能不是在后台运行的。因此,在启动pyspark之前,我运行了启动的
/sbin/start all.sh
带着乐观的心情,我重新开始了pysprak,但运气不佳,仍然犯了同样的错误。如果您需要任何额外的文件/详细信息,请发表评论
更新1:
这次我在运行pyspark命令之前启动了Hadoop和Spark。我在终端中得到一些错误描述更新2: 最后一次机会,我决定卸载Spark 2.0.1-bin-hadoop2.7并安装预装Hadoop的Spark。
谢谢你的帮助。提前谢谢