hadoop文件系统列出我自己的根目录

hadoop文件系统列出我自己的根目录,hadoop,installation,hdfs,yarn,Hadoop,Installation,Hdfs,Yarn,当我尝试在mac上安装单节点hadoop Thread 2.2.0时,我遇到了一个非常棘手的情况。我遵循此链接的教程: 当我启动hadoop和jps来检查状态时,它显示:我认为这意味着正常 5552 Jps 7162 ResourceManager 7512 Jps 7243 NodeManager 6962 DataNode 7060 SecondaryNameNode 6881 NameNode 然而,进入之后 hadoop fs -ls / 文件列表是我自己的根目录中的文件,而不是h

当我尝试在mac上安装单节点hadoop Thread 2.2.0时,我遇到了一个非常棘手的情况。我遵循此链接的教程:

当我启动hadoop和jps来检查状态时,它显示:我认为这意味着正常

5552 Jps
7162 ResourceManager
7512 Jps
7243 NodeManager
6962 DataNode
7060 SecondaryNameNode
6881 NameNode
然而,进入之后

hadoop fs -ls / 

文件列表是我自己的根目录中的文件,而不是hadoop文件系统根目录中的文件。当我设置混合我自己的fs和hdfs的hadoop时,一定有一些错误。有人能给我一个提示吗?

使用以下命令访问HDFS

hadoop fs -ls hdfs://localhost:9000/

填充${HADOOP_CONF_DIR}/core-site.xml,如下所示。如果您不指定hdfs://URI,也可以访问hdfs

<configuration>
<property>
   <name>fs.default.name</name>
   <value>hdfs://localhost:9000</value>
</property>
</configuration>

使用以下命令访问HDFS

hadoop fs -ls hdfs://localhost:9000/

填充${HADOOP_CONF_DIR}/core-site.xml,如下所示。如果您不指定hdfs://URI,也可以访问hdfs

<configuration>
<property>
   <name>fs.default.name</name>
   <value>hdfs://localhost:9000</value>
</property>
</configuration>

我已经使用了您的第二种方法,并尝试hadoop fs-ls/。它仍然显示我的根目录列表。如果您能够使用方法1?访问HDFS?。如果这是可行的,请使用修改后的方法2,以便在不指定URIYes的情况下访问hdfs,它可以与方法1配合使用!我只是想知道为什么它不适用于第二种方法……之前,即使我们修改core-site.xml文件,它也不在类路径中,无论我们在环境变量HADOOP_CONF_DIR中指定的值是什么,都会加载到类路径中。我已经使用了第二种方法,请尝试HADOOP fs-ls/。它仍然显示我的根目录列表。如果您能够使用方法1?访问HDFS?。如果这是可行的,请使用修改后的方法2,以便在不指定URIYes的情况下访问hdfs,它可以与方法1配合使用!我只是想知道为什么它不适用于第二种方法……之前,即使我们修改core-site.xml文件,它也不在CLASSPATH中,我们在环境变量HADOOP_CONF_DIR中指定的任何值都将加载到CLASSPATH中