Apache spark 即使设置了系统/环境变量,也无法在windows 10中设置pyspark
我已按要求设置了系统变量,但spark shell未启动,我已尝试设置所有系统变量,而不是环境/用户变量Apache spark 即使设置了系统/环境变量,也无法在windows 10中设置pyspark,apache-spark,pyspark,Apache Spark,Pyspark,我已按要求设置了系统变量,但spark shell未启动,我已尝试设置所有系统变量,而不是环境/用户变量 JAVA_HOME = C:\Program Files\Java\jdk1.8.0_121 HADOOP_HOME = E:\Arun\Software\hadoop SPARK_HOME = E:\Arun\Software\Spark\spark-2.4.7-bin-hadoop2.7 path = %HADOOP_HOME%\bin;%SPARK_HOME%\bin;%JAVA_HO
JAVA_HOME = C:\Program Files\Java\jdk1.8.0_121
HADOOP_HOME = E:\Arun\Software\hadoop
SPARK_HOME = E:\Arun\Software\Spark\spark-2.4.7-bin-hadoop2.7
path = %HADOOP_HOME%\bin;%SPARK_HOME%\bin;%JAVA_HOME%\bin
氹是否可以关闭控制台,打开新电脑或重新启动电脑?它看起来是正确的。@JDev我也尝试过重新启动,只是不起作用