Apache spark 无法创建spark上下文-SparkContext挂起,Windows操作系统

Apache spark 无法创建spark上下文-SparkContext挂起,Windows操作系统,apache-spark,pyspark,Apache Spark,Pyspark,我在Windows上安装了pyspark,pyspark外壳的工作原理与预期相同。没有问题。然而,当我试图从jupyter笔记本创建上下文时,SparkContext挂起 中断后,我发现它停止在: pyspark\java_gateway.py,代码中标记有以下注释: #等待文件出现,或等待进程退出,以先发生的为准 截图 有关环境的更多详细信息: pyspark版本2.3.3(spark和pyspark同等) java 8(目录名中没有空格) jupyter笔记本5.7.8 python 3

我在Windows上安装了pyspark,pyspark外壳的工作原理与预期相同。没有问题。然而,当我试图从jupyter笔记本创建上下文时,SparkContext挂起

中断后,我发现它停止在: pyspark\java_gateway.py,代码中标记有以下注释:

#等待文件出现,或等待进程退出,以先发生的为准

截图

有关环境的更多详细信息:

  • pyspark版本2.3.3(spark和pyspark同等)
  • java 8(目录名中没有空格)
  • jupyter笔记本5.7.8
  • python 3.6.5
我也尝试了findspark,但结果完全一样

有人知道可能是什么问题吗

更新: 用户变量:

  • HADOOP_HOME=C:\spark-2.3.3-bin-hadoop2.7\winutils
  • JAVA\u HOME=C:\JAVA\jdk1.8.0\u 212
  • SPARK_HOME=C:\SPARK-2.3.3-bin-hadoop2.7
系统变量:

  • HADOOP_HOME=C:\spark-2.3.3-bin-hadoop2.7\winutils\bin
  • JAVA\u HOME=C:\JAVA\jdk1.8.0\u 212
  • SPARK\u HOME=C:\SPARK-2.3.3-bin-hadoop2.7\bin
  • 路径包含C:\spark-2.3.3-bin-hadoop2.7\bin

您如何管理您的环境。变量?我把它们放在更新部分的主要问题中。