Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/oracle/10.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java Hadoop安装时出错";无法执行非目录";_Java_Oracle_Hadoop - Fatal编程技术网

Java Hadoop安装时出错";无法执行非目录";

Java Hadoop安装时出错";无法执行非目录";,java,oracle,hadoop,Java,Oracle,Hadoop,我试图在我的本地系统中安装Hadoop 2.6.0,用于一些研究目的,但当我完成配置和java安装后,安装就停止了。它在执行命令时遇到错误 "hdfs namenode -format" 我得到的错误消息如下 “usr/local/hadoop/bin/hdfs:276行: /usr/lib/jvm/java-7-oracle/jre/bin/java/bin/java:不是目录 /usr/local/hadoop/bin/hdfs:line 276:exec: /usr/lib/jvm/ja

我试图在我的本地系统中安装Hadoop 2.6.0,用于一些研究目的,但当我完成配置和java安装后,安装就停止了。它在执行命令时遇到错误

"hdfs namenode -format"
我得到的错误消息如下

“usr/local/hadoop/bin/hdfs:276行: /usr/lib/jvm/java-7-oracle/jre/bin/java/bin/java:不是目录 /usr/local/hadoop/bin/hdfs:line 276:exec: /usr/lib/jvm/java-7-oracle/jre/bin/java/bin/java:cannotexecute:Not 目录“

我想知道以前是否有人遇到过这个错误。
帮我解决这个。。。。提前感谢

看起来Hadoop 2.6没有考虑JAVA_HOME变量。这可能是Java 8未记录的功能。:-)

它位于etc/hadoop/hadoop-env.sh下的hadoop安装文件夹中
有一行代码将JAVA_设置在那里。它会将/bin/java附加到您在该行中输入的内容。在我的例子中,java是/usr/bin/java中的默认安装,所以我只是将它设置为/usr,它就工作了。

看起来Hadoop 2.6没有考虑java_HOME变量。这可能是Java 8未记录的功能。:-)

它位于etc/hadoop/hadoop-env.sh下的hadoop安装文件夹中
有一行代码将JAVA_设置在那里。它会将/bin/java附加到您在该行中输入的内容。在我的例子中,java是/usr/bin/java中的默认安装,所以我只是将它设置为/usr,它就工作了。

您将java设置为HOME了吗?设置为什么?是的,我已经把JAVA_设置好了。设置为/usr/lib/jvm/java-1.6.0-openjdk-i386好的,您知道是什么配置导致hdfs从/usr/lib/jvm/java-7-oracle运行java吗?具体来说,设置在哪里,设置的具体值是什么?是否将JAVA_设置为HOME?设置为什么?是的,我已经把JAVA_设置好了。设置为/usr/lib/jvm/java-1.6.0-openjdk-i386好的,您知道是什么配置导致hdfs从/usr/lib/jvm/java-7-oracle运行java吗?具体来说,设置在哪里,设置的具体值是什么?我的Java版本是1.6。我正在尝试在上面设置Hadoop-2.5.2
hdfs namenode-format
给出错误“无法执行:不是目录”我使用
whereis java
命令检查了我的java路径,该命令显示/usr/bin/java,因此我根据您的建议在hadoop-env.sh中设置了
export java_HOME=/usr
。但现在它显示了hadoop-wnv.sh文件中出现的
export:'=/usr':不是有效标识符。你能看到这个问题并帮助我@MichaelMy Java版本是1.6吗。我正在尝试在上面设置Hadoop-2.5.2
hdfs namenode-format
给出错误“无法执行:不是目录”我使用
whereis java
命令检查了我的java路径,该命令显示/usr/bin/java,因此我根据您的建议在hadoop-env.sh中设置了
export java_HOME=/usr
。但现在它显示了hadoop-wnv.sh文件中出现的
export:'=/usr':不是有效标识符。你能看到这个问题并帮助我@Michael吗