在同一台机器上安装Spark和Hadoop

在同一台机器上安装Spark和Hadoop,hadoop,apache-spark,pyspark,hdfs,Hadoop,Apache Spark,Pyspark,Hdfs,我正在尝试在同一台机器上安装Spark Apache和Hadoop。Spark将用于处理数据,Hadoop的HDFS将用于存储数据。我首先安装spark,它工作得非常好。但是,当我开始安装Hadoop并设置JAVA_HOME环境变量HDFS时,spark发生故障并显示:文件在此时是意外的。当我启动它时。当我删除JAVA_HOME时,Spark再次工作,但HDFS的情况并非如此。在这种情况下我应该怎么做?您使用的是什么操作系统?你能显示你的JAVA_主页路径吗?您的JAVA_主页路径不应包含空格。

我正在尝试在同一台机器上安装Spark Apache和Hadoop。Spark将用于处理数据,Hadoop的HDFS将用于存储数据。我首先安装spark,它工作得非常好。但是,当我开始安装Hadoop并设置JAVA_HOME环境变量HDFS时,spark发生故障并显示:
文件在此时是意外的。
当我启动它时。当我删除JAVA_HOME时,Spark再次工作,但HDFS的情况并非如此。在这种情况下我应该怎么做?

您使用的是什么操作系统?你能显示你的JAVA_主页路径吗?您的JAVA_主页路径不应包含空格。

我正在使用windows 10,我的JAVA_主页是:“C:\Program Files(x86)\JAVA\jdk1.8.0_121”我在您的路径中至少看到2个空格-“Program Files(x86)”。尝试为JAVA_HOME使用不同的路径-不带空格。再次安装JAVA或只是将文件移动到另一个目录中?我修复了它,我只是将程序文件中的JAVA文件夹移动到一个没有空格的目录中,并且可以正常工作。现在,我的电脑上安装了spark和hadoop。