Macos Hadoop:配置不正确

Macos Hadoop:配置不正确,macos,hadoop,osx-elcapitan,Macos,Hadoop,Osx Elcapitan,大家好,我的社区, 所以我一直想安装hadoop,但我遇到了一个问题。 我已经研究过其他的方法,但我仍然不断地接受。我对hadoop完全陌生,所以我真的不知道该去哪里。如果相关的话,我正在使用El Capitan的macbook pro。一旦我输入sbin/start-dfs.sh,我就会收到: sbin/start-dfs.sh 16/05/10 11:09:37 WARN util.NativeCodeLoader: Unable to load native-hadoop library

大家好,我的社区, 所以我一直想安装hadoop,但我遇到了一个问题。 我已经研究过其他的方法,但我仍然不断地接受。我对hadoop完全陌生,所以我真的不知道该去哪里。如果相关的话,我正在使用El Capitan的macbook pro。一旦我输入sbin/start-dfs.sh,我就会收到:

sbin/start-dfs.sh
16/05/10 11:09:37 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
Starting namenodes on []
Password:
localhost: /usr/local/Cellar/hadoop/2.7.2/libexec/sbin/hadoop-daemon.sh: line 69: [: MacBook: integer expression expected
localhost: starting namenode, logging to /usr/local/Cellar/hadoop/2.7.2/libexec/logs/hadoop-name-namenode-name’s
localhost: Error: Could not find or load main class MacBook
hadoop-daemon.sh是:

相关的XML如下所示:

core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
嘿,这是一个更新,如果有人考虑:我现在得到这个

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [myIP@]
新注释:我正在使用并重新遵循此指南重新执行此过程。无论成功与否,我都会在这里发布我的更新:)


看起来您的conf目录设置不正确,请尝试以下步骤

export HADOOP_CONF_DIR = $HADOOP_HOME/etc/hadoop
hdfs namenode -format
hdfs getconf -namenodes
./start-dfs.sh

看起来您的conf目录设置不正确,请尝试以下步骤

export HADOOP_CONF_DIR = $HADOOP_HOME/etc/hadoop
hdfs namenode -format
hdfs getconf -namenodes
./start-dfs.sh


如果您只想尝试Hadoop,请从Cloudera或Hortonworks下载预构建的发行版。(分别称为Quickstart VM或Sandbox)有没有办法绕过虚拟机?我只想将其作为Eclipse插件Clipse插件运行??Hadoop是一个框架。您正试图通过编辑这些XML文件,将Hadoop二进制文件配置为与集群通信。要“安装Hadoop”,您至少需要安装HDFS+Thread+Zookeeper。virtualbox只是简单地为您打包了所有这些,我以前尝试过做这个插件,但我放弃了,因为github存储库的README.md已经过时了。我很抱歉没有澄清这一点。另外,对于虚拟机来说,这是没有办法的,谢谢你忍受我的无知。最后,我只是问,因为这位教授似乎在没有虚拟机的Mac操作系统上安装了一个旧版本。不过,我一直在松散地关注这一点:。如果您只想尝试Hadoop,请从Cloudera或Hortonworks下载一个预构建的发行版。(分别称为Quickstart VM或Sandbox)有没有办法绕过虚拟机?我只想将其作为Eclipse插件Clipse插件运行??Hadoop是一个框架。您正试图通过编辑这些XML文件,将Hadoop二进制文件配置为与集群通信。要“安装Hadoop”,您至少需要安装HDFS+Thread+Zookeeper。virtualbox只是简单地为您打包了所有这些,我以前尝试过做这个插件,但我放弃了,因为github存储库的README.md已经过时了。我很抱歉没有澄清这一点。另外,对于虚拟机来说,这是没有办法的,谢谢你忍受我的无知。最后,我只是问,因为这位教授似乎在没有虚拟机的Mac操作系统上安装了一个旧版本。不过我一直在松散地遵循这一点:。所以我像你说的那样更改了dir hadoop并收到了这个。错误:找不到配置目录:/etc/hadoop错误:找不到配置目录:/etc/hadoop正在启动辅助名称节点[2016-05-10 12:07:27079 WARN[main]util.NativeCodeLoader(NativeCodeLoader.java:(62))-无法为您的平台加载本机hadoop库…在适用的情况下使用内置java类[0.0.0.0]错误:找不到配置目录:/etc/hadoop是否设置了hadoop_HOME?,请尝试将其设置为安装目录Yes:export hadoop_HOME=/usr/local/Cell/hadoop/2.7.2,它将/etc/hadoop视为hadoop_CONF_DIR,尝试设置hadoop_CONF_DIR=/usr/local/ceral/hadoop/2.7.2/etc/hadoop,因此我像您所说的那样更改了DIR-hadoop并收到了此消息。错误:找不到配置目录:/etc/hadoop错误:找不到配置目录:/etc/hadoop启动辅助名称节点[2016-05-10 12:07:27079警告[main]util.NativeCodeLoader(NativeCodeLoader.java:(62))-无法为您的平台加载本机hadoop库…在适用的情况下使用内置java类0.0.0]错误:找不到配置目录:/etc/HADOOP是否设置了HADOOP_HOME?,请尝试将其设置为安装目录yes:export-HADOOP_HOME=/usr/local/ceral/HADOOP/2.7.2从异常中,它将/etc/HADOOP视为HADOOP_CONF_DIR,尝试设置HADOOP_CONF_DIR=/usr/local/ceral/HADOOP/2.7.2/etc/HADOOP
zhongyaonan.com/hadoop-tutorial/…
export HADOOP_CONF_DIR = $HADOOP_HOME/etc/hadoop
hdfs namenode -format
hdfs getconf -namenodes
./start-dfs.sh