Apache spark 如何在Jupyter中使用Thread客户端模式以交互方式运行Pyspark?
现在,我已经通过本文中提到的第二种方法成功地在本地模式下运行了Jupyter中的Pyspark。 代码如下:Apache spark 如何在Jupyter中使用Thread客户端模式以交互方式运行Pyspark?,apache-spark,pyspark,jupyter,Apache Spark,Pyspark,Jupyter,现在,我已经通过本文中提到的第二种方法成功地在本地模式下运行了Jupyter中的Pyspark。 代码如下: import findspark findspark.init() from pyspark import SparkContext sc = SparkContext("local", "First App") 我想在Thread客户端模式下以交互方式运行它,我如何才能做到? 让我们进一步了解如何在不同的模式下运行,例如独立模式和纱线簇模式。根据: 主URL基于HADOOP_CONF
import findspark
findspark.init()
from pyspark import SparkContext
sc = SparkContext("local", "First App")
我想在Thread客户端模式下以交互方式运行它,我如何才能做到?
让我们进一步了解如何在不同的模式下运行,例如独立模式和纱线簇模式。根据:
主URL基于HADOOP_CONF_DIR或纱线_CONF_DIR变量接受warn
参数
因此,我可以简单地使用:
sc=SparkContext(“纱线客户端”、“第一个应用程序”)
您的纱线客户端URL是什么?此外,还需要使用SparkConf()
。请编辑您的问题,添加有关配置的更多详细信息。多谢你的评论。源代码说明SparkContext
的构造方法接受键值对或SparkConf()
对象,因此我的配置方法是正确的。