Apache spark 如何在Jupyter中使用Thread客户端模式以交互方式运行Pyspark?

Apache spark 如何在Jupyter中使用Thread客户端模式以交互方式运行Pyspark?,apache-spark,pyspark,jupyter,Apache Spark,Pyspark,Jupyter,现在,我已经通过本文中提到的第二种方法成功地在本地模式下运行了Jupyter中的Pyspark。 代码如下: import findspark findspark.init() from pyspark import SparkContext sc = SparkContext("local", "First App") 我想在Thread客户端模式下以交互方式运行它,我如何才能做到? 让我们进一步了解如何在不同的模式下运行,例如独立模式和纱线簇模式。根据: 主URL基于HADOOP_CONF

现在,我已经通过本文中提到的第二种方法成功地在本地模式下运行了Jupyter中的Pyspark。 代码如下:

import findspark
findspark.init()
from pyspark import SparkContext
sc = SparkContext("local", "First App")
我想在Thread客户端模式下以交互方式运行它,我如何才能做到? 让我们进一步了解如何在不同的模式下运行,例如独立模式和纱线簇模式。

根据:

主URL基于HADOOP_CONF_DIR或纱线_CONF_DIR变量接受
warn
参数

因此,我可以简单地使用:

sc=SparkContext(“纱线客户端”、“第一个应用程序”)

您的纱线客户端URL是什么?此外,还需要使用
SparkConf()
。请编辑您的问题,添加有关配置的更多详细信息。多谢你的评论。源代码说明
SparkContext
的构造方法接受键值对或
SparkConf()
对象,因此我的配置方法是正确的。