Pyspark 当其他笔记本电脑正在运行时,Jupyter群集的内核处于忙碌状态

Pyspark 当其他笔记本电脑正在运行时,Jupyter群集的内核处于忙碌状态,pyspark,jupyter,jupyter-notebook,Pyspark,Jupyter,Jupyter Notebook,我在谷歌云中有一个jupyter集群,当运行一个笔记本电脑时,它可以正常工作。当打开第二个笔记本时,它会一直显示“内核忙”,直到我“关闭并停止”第一个笔记本 在jupyter(PySpark内核)中,我一次只能使用一个笔记本吗? 这可能是启动集群时我没有完成的配置吗 在jupyter(PySpark内核)中,我一次只能使用一个笔记本吗 不幸的是,只有一个 这可能是启动集群时我没有完成的配置吗 不幸的是,没有 因此,如果你坚持使用Jupyter,你需要记住关闭其他笔记本电脑。但是,如果脚本使用集群

我在谷歌云中有一个jupyter集群,当运行一个笔记本电脑时,它可以正常工作。当打开第二个笔记本时,它会一直显示“内核忙”,直到我“关闭并停止”第一个笔记本

在jupyter(PySpark内核)中,我一次只能使用一个笔记本吗? 这可能是启动集群时我没有完成的配置吗

在jupyter(PySpark内核)中,我一次只能使用一个笔记本吗

不幸的是,只有一个

这可能是启动集群时我没有完成的配置吗

不幸的是,没有

因此,如果你坚持使用Jupyter,你需要记住关闭其他笔记本电脑。但是,如果脚本使用集群的所有资源,这可能不是一个大问题


我建议您试试哪个更适合作为Spark的笔记本电脑环境。

我不知道如何解决它,或者即使它是谷歌云问题,但一般来说,您应该能够同时打开多个笔记本电脑谢谢@ShuaiYuan。这仅仅是因为Jupyter或其他环境(如齐柏林飞艇)也有这个限制吗?齐柏林飞艇没有这个限制。您还可以配置齐柏林飞艇应该如何使用