Apache spark 无法创建spark上下文-SparkContext挂起,Windows操作系统
我在Windows上安装了pyspark,pyspark外壳的工作原理与预期相同。没有问题。然而,当我试图从jupyter笔记本创建上下文时,SparkContext挂起 中断后,我发现它停止在: pyspark\java_gateway.py,代码中标记有以下注释: #等待文件出现,或等待进程退出,以先发生的为准 截图 有关环境的更多详细信息:Apache spark 无法创建spark上下文-SparkContext挂起,Windows操作系统,apache-spark,pyspark,Apache Spark,Pyspark,我在Windows上安装了pyspark,pyspark外壳的工作原理与预期相同。没有问题。然而,当我试图从jupyter笔记本创建上下文时,SparkContext挂起 中断后,我发现它停止在: pyspark\java_gateway.py,代码中标记有以下注释: #等待文件出现,或等待进程退出,以先发生的为准 截图 有关环境的更多详细信息: pyspark版本2.3.3(spark和pyspark同等) java 8(目录名中没有空格) jupyter笔记本5.7.8 python 3
- pyspark版本2.3.3(spark和pyspark同等)
- java 8(目录名中没有空格)
- jupyter笔记本5.7.8
- python 3.6.5
- HADOOP_HOME=C:\spark-2.3.3-bin-hadoop2.7\winutils
- JAVA\u HOME=C:\JAVA\jdk1.8.0\u 212
- SPARK_HOME=C:\SPARK-2.3.3-bin-hadoop2.7
- HADOOP_HOME=C:\spark-2.3.3-bin-hadoop2.7\winutils\bin
- JAVA\u HOME=C:\JAVA\jdk1.8.0\u 212
- SPARK\u HOME=C:\SPARK-2.3.3-bin-hadoop2.7\bin
- 路径包含C:\spark-2.3.3-bin-hadoop2.7\bin