Apache spark 我的代码是他们在星火与Jupyter笔记本内核分发
我需要帮助,因为我不知道Jupyter笔记本内核在Spark集群中是否可用 在我的本地Spark中,我使用这个,我没有问题 我将此内核用于PySpark: 我使用的是一个独立的Spark群集,有三个节点,没有纱线Apache spark 我的代码是他们在星火与Jupyter笔记本内核分发,apache-spark,pyspark,jupyter-notebook,Apache Spark,Pyspark,Jupyter Notebook,我需要帮助,因为我不知道Jupyter笔记本内核在Spark集群中是否可用 在我的本地Spark中,我使用这个,我没有问题 我将此内核用于PySpark: 我使用的是一个独立的Spark群集,有三个节点,没有纱线 非常感谢。您可以使用带有python内核的主IP独立连接到spark群集 import pyspark sc = pyspark.SparkContext(master='spark://<public-ip>:7077', appName='<your_app_n
非常感谢。您可以使用带有python内核的主IP独立连接到spark群集
import pyspark
sc = pyspark.SparkContext(master='spark://<public-ip>:7077', appName='<your_app_name>')
导入pyspark
sc=pyspark.SparkContext(master='spark://:7077',appName='')
参考资料