Hadoop:无法加载本机Hadoop库

Hadoop:无法加载本机Hadoop库,hadoop,hadoop2,Hadoop,Hadoop2,我知道这是互联网上的一个著名问题,有很多网站展示了如何解决这个问题,也有很多QA。但是他们中没有一个人帮助过我,我现在很沮丧。所以我会尽我所能提供每一个细节,如果我忽略了什么,我感谢你的帮助 **OS** : Ubuntu 16.04 32 bit **Hadoop version** : Hadoop 3.0.0-alpha3 **bashrc** : export HADOOP_HOME=/usr/local/hadoopec/hadoop export HADOOP_CONF_DIR=

我知道这是互联网上的一个著名问题,有很多网站展示了如何解决这个问题,也有很多QA。但是他们中没有一个人帮助过我,我现在很沮丧。所以我会尽我所能提供每一个细节,如果我忽略了什么,我感谢你的帮助

**OS** : Ubuntu 16.04 32 bit
**Hadoop version** : Hadoop 3.0.0-alpha3
**bashrc** : 

export HADOOP_HOME=/usr/local/hadoopec/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoopec/hadoop/etc/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoopec/hadoop
export HADOOP_COMMON_HOME=/usr/local/hadoopec/hadoop
export HADOOP_HDFS_HOME=/usr/local/hadoopec/hadoop
export PATH=$PATH:/usr/local/hadoopec/hadoop/bin

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-i386

export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
#export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

**core-site.xml** : 

<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/hadoopec/hadoop/tmp</value>
  <description>Temporary Directory.</description>
</property>

<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
  <description>Use HDFS as file storage engine</description>
</property>

 **hdfs-env.sh**

export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_OPTS="$HADOOP_OPTS -XX:-PrintWarnings -Djava.net.preferIPv4Stack=true"
export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH

**hdfs-site.xml**

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.permission</name>
<value>false</value>
</property>

 <property>
  <name>dfs.namenode.name.dir</name>
  <value>/usr/local/hadoopec/hadoop/tmp/hdfs/name</value>
  </property>

<property>
  <name>dfs.datanode.data.dir</name>
  <value>/usr/local/hadoopec/hadoop/tmp/hdfs/data</value>
  </property>
**OS**:Ubuntu 16.04 32位
**Hadoop版本**:Hadoop 3.0.0-alpha3
**巴塞尔公约**:
导出HADOOP_HOME=/usr/local/hadoopec/HADOOP
导出HADOOP_CONF_DIR=/usr/local/hadoopec/HADOOP/etc/HADOOP
导出HADOOP\u MAPRED\u HOME=/usr/local/hadoopec/HADOOP
导出HADOOP\u COMMON\u HOME=/usr/local/hadoopec/HADOOP
导出HADOOP\u HDFS\u HOME=/usr/local/hadoopec/HADOOP
导出路径=$PATH:/usr/local/hadoop/hadoop/bin
导出JAVA_HOME=/usr/lib/jvm/JAVA-8-openjdk-i386
导出LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
#export HADOOP_OPTS=“-Djava.library.path=$HADOOP_HOME/lib/native”
导出HADOOP\u COMMON\u LIB\u NATIVE\u DIR=$HADOOP\u HOME/LIB/NATIVE
export HADOOP_OPTS=“-Djava.library.path=$HADOOP_HOME/lib”
**core site.xml**:
hadoop.tmp.dir
/usr/hadoop/hadoop/tmp
临时目录。
fs.default.name
hdfs://localhost:9000
使用HDFS作为文件存储引擎
**hdfs-env.sh**
export HADOOP_OPTS=“$HADOOP_OPTS-Djava.library.path=$HADOOP_HOME/lib/native”
export HADOOP_OPTS=“$HADOOP_OPTS-XX:-PrintWarnings-Djava.net.preferIPv4Stack=true”
导出LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
**hdfs-site.xml**
dfs.replication
3.
dfs.permission
假的
dfs.namenode.name.dir
/usr/local/hadoop/hadoop/tmp/hdfs/name
dfs.datanode.data.dir
/usr/local/hadoop/hadoop/tmp/hdfs/data

如果有人需要更多的信息,请随时问我

我通过下载hadoop 2.8.0并像以前的hadoop一样进行所有精确配置来解决问题,尽管我不知道到底是什么导致了错误或警告
localhost:50070
给了我
无法连接的错误。如果有人能指出原因,我将不胜感激