Apache spark windows 10上的Spark不工作

Apache spark windows 10上的Spark不工作,apache-spark,windows-10,Apache Spark,Windows 10,我想让spark在win10上工作。当我尝试运行spark shell时,出现以下错误: 'Spark\Spark-2.0.0-bin-hadoop2.7\bin..\jars\未被识别为内部或外部命令、可操作程序或批处理文件 找不到Spark jars目录。在运行此程序之前,您需要构建Spark 我正在为hadoop 2.7或更高版本使用预构建的spark。我已经安装了Java8、EclipseNeon、Python2.7、Scala2.11、Hadoop2.7.1版的winutils,但我仍

我想让spark在win10上工作。当我尝试运行spark shell时,出现以下错误:

'Spark\Spark-2.0.0-bin-hadoop2.7\bin..\jars\未被识别为内部或外部命令、可操作程序或批处理文件

找不到Spark jars目录。在运行此程序之前,您需要构建Spark

我正在为hadoop 2.7或更高版本使用预构建的spark。我已经安装了Java8、EclipseNeon、Python2.7、Scala2.11、Hadoop2.7.1版的winutils,但我仍然收到这个错误

当我不加载spark时,它出现在tgz中,当提取时,里面有另一个tzg,所以我也提取了它,然后我得到了所有的bin文件夹和东西。我需要进入spark shell。有人能帮忙吗

编辑: 我最终使用的解决方案是:

1虚拟盒


2 Linux mint

您可能给Spark bin提供了错误的文件夹路径

只需打开命令提示符并将目录更改为spark文件夹中的bin

键入火花壳进行检查


请参阅:

您可能给Spark bin提供了错误的文件夹路径

只需打开命令提示符并将目录更改为spark文件夹中的bin

键入火花壳进行检查


请参阅:

我在构建Spark时遇到了相同的错误。您可以将提取的文件夹移动到C:\

请参阅:

我在构建Spark时遇到了相同的错误。您可以将提取的文件夹移动到C:\

请参阅:

在Windows上,我发现如果安装在路径C:\Program Files\Spark中有空格的目录中,安装将失败。将其移动到根目录或其他没有空格的目录。 或
如果您在“C:\Program Files x86..”下安装了Spark,请在PATH env变量和Spark_HOME用户变量中将“Program Files x86”替换为Progra~2。

在Windows上,我发现如果安装在路径C:\Program Files\Spark中有空格的目录中,安装将失败。将其移动到根目录或其他没有空格的目录。 或
如果您在“C:\Program Files x86..”下安装了Spark,请在PATH env变量和Spark_HOME用户变量中将“Program Files x86”替换为Progra~2。

能否发布完整的错误详细信息,以便我们更好地了解问题?能否发布完整的错误详细信息,以便我们更好地了解问题?