Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/340.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
错误:未设置JAVA_HOME,在hadoop安装后找不到_Java_Hadoop_Raspberry Pi_Raspbian - Fatal编程技术网

错误:未设置JAVA_HOME,在hadoop安装后找不到

错误:未设置JAVA_HOME,在hadoop安装后找不到,java,hadoop,raspberry-pi,raspbian,Java,Hadoop,Raspberry Pi,Raspbian,在干净的Raspbian Stretch Lite(加上java版本1.8.0_65)上的Raspberry Pi上以独立模式安装hadoop 2.7.7后,出现以下错误: Error: JAVA_HOME is not set and could not be found. 这是尽管我在/etc/bash.bashrc中有这一行: export JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:bin/java::") printenv输出以下内

在干净的Raspbian Stretch Lite(加上java版本1.8.0_65)上的Raspberry Pi上以独立模式安装hadoop 2.7.7后,出现以下错误:

Error: JAVA_HOME is not set and could not be found.
这是尽管我在
/etc/bash.bashrc
中有这一行:

export JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:bin/java::")
printenv
输出以下内容:

...
JAVA_HOME=/usr/lib/jvm/jdk-8-oracle-arm32-vfp-hflt/
....
我看到了很多,但答案似乎是,
导出
被错误地注释掉了,或者是把它放在了
hadoop env.sh
中-但是我似乎没有这个文件

我正努力按照指示行事,一切正常,直到:

Start, stop and list running services

1. $cd $HADOOP_HOME/sbin

2. $./start-dfs.sh

我怎样才能解决这个问题呢?

让我们编辑/etc/hadoop/hadoop env.sh文件并为hadoop设置
JAVA\u HOME
。这是您没有找到的路径
hadoop env.sh

打开文件,找到下面的行

export JAVA_HOME=/usr/lib/jvm/jdk-8-oracle-arm32-vfp-hflt/
如果行存在并被注释掉,请取消注释。否则,将该行添加到文件中小心不要

export JAVA_HOME=${JAVA_HOME}
如果仍然找不到该文件,则可能路径不同。尝试使用

find / -iname 'hadoop-env.sh'

让我们编辑/etc/hadoop/hadoop env.sh文件,并为hadoop设置
JAVA\u HOME
。这是您没有找到的路径
hadoop env.sh

打开文件,找到下面的行

export JAVA_HOME=/usr/lib/jvm/jdk-8-oracle-arm32-vfp-hflt/
如果行存在并被注释掉,请取消注释。否则,将该行添加到文件中小心不要

export JAVA_HOME=${JAVA_HOME}
如果仍然找不到该文件,则可能路径不同。尝试使用

find / -iname 'hadoop-env.sh'


谢谢,但是我没有
/etc/hadoop
,我有
/opt/hadoop/
,而且那个文件也不是他们的。我尝试创建它,但错误仍然存在…再次感谢,我仍然找不到该文件。我已经更新了我的问题,进一步info@JoeKing找不到??真奇怪。您也看过conf/hadoop-env.sh了吗?好吧,我按照我在上面的问题中添加的链接中的说明进行了操作,在这之前没有出现任何错误(AFAIK)。但很明显,我现在想知道之前是否出了问题:(@JoeKing你能再次运行上次搜索编辑的评论吗?仍然没有找到??我已经删除了符号。谢谢,但是我没有
/etc/hadoop
,我有
/opt/hadoop/
,并且该文件也不是他们的。我尝试创建了它,但错误仍然存在…再次感谢,我仍然没有找到该文件。我已经更新了我的问题。)h进一步info@JoeKing未找到??这真的很奇怪。你也看过conf/hadoop-env.sh吗?好吧,我按照我在上面的问题中添加的链接中的说明进行了操作,到目前为止没有出现任何错误(AFAIK)。但显然我现在想知道之前是否出了问题:(@JoeKing您能再次运行上次搜索编辑的注释吗?仍然没有找到??我已经删除了符号。顺便说一句,Hadoop在Pi上运行得不太好,因为datanode、namenode、resourcemanager和nodemanager的默认堆空间各约为1G…如果您只需要HDFS,Pi上有更好的选项用于DFS@cricket_007每个Pi都有128GB的闪存,我有5个,所以我觉得这是一个很好的小测试平台:)存储空间对你的堆空间没有帮助,这都是你的问题RAM@cricket_007希望HADOOP_HEAPSIZE=250能对HADOOP env.sh有所帮助。顺便说一句,HADOOP在Pi上运行得不太好,因为datanode、namenode、resourcemanager和nodemanager的默认堆空间分别约为1G……如果您只需要HDFS,那么在Pi上有更好的选择DFS@cricket_007每个Pi都有128GB的闪存存储,我有5个,所以我觉得这是一个很好的小测试平台:)存储不会帮助你的堆空间。这就是我的全部RAM@cricket_007希望
HADOOP\u HEAPSIZE=250
能对
HADOOP env.sh
有所帮助?