Ant 尝试使用保险丝安装HDFS。Can';不编译libhdfs

Ant 尝试使用保险丝安装HDFS。Can';不编译libhdfs,ant,hadoop,mount,fuse,hdfs,Ant,Hadoop,Mount,Fuse,Hdfs,我正在尝试编译libhdfs(一个本地共享库,允许外部应用程序与hdfs接口)。这是使用Fuse安装Hadoop的hdfs所必须采取的几个步骤之一 编译似乎进行了一段时间,但以“构建失败”和以下问题摘要结束- 公共记录#公共记录;1.0.4:在commons logging中找不到配置#commons logging;1.0.4:“硕士”。它是org.apache.hadoop#hadoop;working@btsotbal800公用记录 log4j#log4j;1.2.15:在log4j#lo

我正在尝试编译libhdfs(一个本地共享库,允许外部应用程序与hdfs接口)。这是使用Fuse安装Hadoop的hdfs所必须采取的几个步骤之一

编译似乎进行了一段时间,但以“构建失败”和以下问题摘要结束-

公共记录#公共记录;1.0.4:在commons logging中找不到配置#commons logging;1.0.4:“硕士”。它是org.apache.hadoop#hadoop;working@btsotbal800公用记录

log4j#log4j;1.2.15:在log4j#log4j中未找到配置;1.2.15:“船长”。它是org.apache.hadoop#hadoop;working@btsotbal800log4j

现在,我有几个问题要问,在我用来做这件事的那本书中,没有详细说明这些东西到底是什么

  • Hadoop使用的是commons日志和log4j库吗
  • 这些库似乎位于$HADOOP_HOME/lib中。不过它们是jar文件。我是否应该提取它们,尝试更改一些配置,然后将它们重新打包回jar中
  • 以上错误中的“大师”是什么意思?有不同版本的库吗

  • 提前感谢您提供的任何见解。

    如果您使用的是cloudera hadoop(cdh3u2),则无需构建fuse项目

    您可以在目录$HADOOP_HOME/c++/lib中找到二进制文件(libhdfs.so*)

    在安装保险丝之前,更新“$HADOOP\u HOME/contrib/fuse-dfs/src/fuse\u-dfs\u wrapper.sh”,如下所示

    HADOOP\u HOME/contrib/fuse-dfs/src/fuse\u-dfs\u wrapper.sh

    LD_LIBRARY_PATH包含此处的目录列表
    “$HADOOP_HOME/c++/lib”包含libhdfs.so和
    “/usr/lib/jvm/java-6-sun-1.6.0.26/jre/lib/amd64/server/”包含libjvm.so
    \\将/usr/lib/jvm/java-6-sun-1.6.0.26/jre/lib/amd64/server/
    修改为您的java主页

    使用以下命令安装hdfs

    fuse_dfs_wrapper.sh dfs://localhost:9000/ /home/510600/mount1
    
    要卸载,请使用以下命令

    fusermount  -u /home/510600/mount1 
    

    我只在hadoop伪模式下测试了fuse,没有在集群模式下测试过

    如果您使用的是cloudera hadoop(cdh3u2),则不需要构建fuse项目

    您可以在目录$HADOOP_HOME/c++/lib中找到二进制文件(libhdfs.so*)

    在安装保险丝之前,更新“$HADOOP\u HOME/contrib/fuse-dfs/src/fuse\u-dfs\u wrapper.sh”,如下所示

    HADOOP\u HOME/contrib/fuse-dfs/src/fuse\u-dfs\u wrapper.sh

    LD_LIBRARY_PATH包含此处的目录列表
    “$HADOOP_HOME/c++/lib”包含libhdfs.so和
    “/usr/lib/jvm/java-6-sun-1.6.0.26/jre/lib/amd64/server/”包含libjvm.so
    \\将/usr/lib/jvm/java-6-sun-1.6.0.26/jre/lib/amd64/server/
    修改为您的java主页

    使用以下命令安装hdfs

    fuse_dfs_wrapper.sh dfs://localhost:9000/ /home/510600/mount1
    
    要卸载,请使用以下命令

    fusermount  -u /home/510600/mount1 
    
    我只在hadoop伪模式下测试了fuse,没有在集群模式下测试