Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cocoa/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 远程访问HDFS_Hadoop - Fatal编程技术网

Hadoop 远程访问HDFS

Hadoop 远程访问HDFS,hadoop,Hadoop,我在某些服务器上运行hadoop服务器,比如说在IP 192.168.11.7上 其核心-site.xml如下所示: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> 现在,我想通过浏览器从本地计算机访问HDFS。可能吗 我试过

我在某些服务器上运行hadoop服务器,比如说在IP 192.168.11.7上 其核心-site.xml如下所示:

<configuration>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
</property>
现在,我想通过浏览器从本地计算机访问HDFS。可能吗

我试过了,但没有用。i、 e.无法访问此站点

多谢各位

编辑:

这是my hdfs-site.xml的内容:

<configuration>
<property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>
<property>
    <name>dfs.namenode.http-address</name>
    <value>0.0.0.0:50070</value>
</property>
<configuration>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
</property>

<property>
        <name>dfs.datanode.http.address</name>
        <value>0.0.0.0:50075</value>
</property>

dfs.replication
1.
dfs.webhdfs.enabled
真的
dfs.namenode.http-address
0.0.0.0:50070

和my core-site.xml:

<configuration>
<property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>
<property>
    <name>dfs.namenode.http-address</name>
    <value>0.0.0.0:50070</value>
</property>
<configuration>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
</property>

<property>
        <name>dfs.datanode.http.address</name>
        <value>0.0.0.0:50075</value>
</property>

fs.defaultFS
hdfs://localhost:9000
dfs.datanode.http.address
0.0.0.0:50075

但当我从本地计算机上访问它时,仍然没有用 有什么不对劲吗

谢谢

(问题现在编辑)

尝试访问50070端口,这是
dfs.http.address
的默认值。这里是您可以访问namenode的web界面的地方。这应该行得通。如果有,您可以在之前将
/explorer.html#/
附加到URL (即
http://192.168.11.7:50070/explorer.html#
),您应该能够从那里浏览文件系统

请参阅此部分以查看各种属性的各种端口的默认值

或者在服务器中遍历
hadoop org.apache.hadoop.conf.Configuration
的输出,查看如果
http://192.168.11.7:50070/
无法在浏览器中工作

所以基本上:

  • 检查这是否有效
    http://192.168.11.7:50070
    有效,如果有效,请转到
    http://192.168.11.7:50070/explorer.html#
    访问文件系统
  • 否则,检查
    hadoop org.apache.hadoop.conf.Configuration
    的输出,查看此值
    dfs.http.address
    是否已更改。它可能会在那里
[旧答案]

您需要的是到远程服务器的SSH连接。我相信这将帮助你实现你所追求的目标

您不太可能正在使用Windows服务器,但如果您正在使用,我相信可以帮助您解决问题

当您这样做时,您可以通过终端访问远程服务器

如果您正在寻找浏览器访问权限,您可以尝试与所列内容和类似的内容。

(问题现已编辑)

尝试访问50070端口,这是
dfs.http.address
的默认值。这里是您可以访问namenode的web界面的地方。这应该行得通。如果有,您可以在之前将
/explorer.html#/
附加到URL (即
http://192.168.11.7:50070/explorer.html#
),您应该能够从那里浏览文件系统

请参阅此部分以查看各种属性的各种端口的默认值

或者在服务器中遍历
hadoop org.apache.hadoop.conf.Configuration
的输出,查看如果
http://192.168.11.7:50070/
无法在浏览器中工作

所以基本上:

  • 检查这是否有效
    http://192.168.11.7:50070
    有效,如果有效,请转到
    http://192.168.11.7:50070/explorer.html#
    访问文件系统
  • 否则,检查
    hadoop org.apache.hadoop.conf.Configuration
    的输出,查看此值
    dfs.http.address
    是否已更改。它可能会在那里
[旧答案]

您需要的是到远程服务器的SSH连接。我相信这将帮助你实现你所追求的目标

您不太可能正在使用Windows服务器,但如果您正在使用,我相信可以帮助您解决问题

当您这样做时,您可以通过终端访问远程服务器


如果您正在寻找浏览器访问权限,您可以尝试与所列内容类似的操作。

两台机器之间应该有一些连接。配置SSH或

两台机器之间应该有一些连接。配置SSH或请注意:

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
</property>

fs.defaultFS
hdfs://localhost:9000
不适用于用户及其浏览器。Java程序在需要访问HDFS时读取该值。 您所看到的是这把钥匙:

<property>
        <name>dfs.datanode.http.address</name>
        <value>0.0.0.0:50075</value>
</property>

dfs.datanode.http.address
0.0.0.0:50075
这是datanode公开其状态的地方。 要使用web浏览器浏览HDFS,您需要激活webhdfs

<property>
  <name>dfs.webhdfs.enabled</name>
  <value>true</value>
</property>
<property>
  <name>dfs.namenode.http-address</name>
  <value>0.0.0.0:50070</value>
</property>

dfs.webhdfs.enabled
真的
dfs.namenode.http-address
0.0.0.0:50070
转换为hdfs-site.xml

然后转到
http://hostname:50070
要从那里访问webHDFS UI,您可以检查所有内容。

请注意:

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
</property>

fs.defaultFS
hdfs://localhost:9000
不适用于用户及其浏览器。Java程序在需要访问HDFS时读取该值。 您所看到的是这把钥匙:

<property>
        <name>dfs.datanode.http.address</name>
        <value>0.0.0.0:50075</value>
</property>

dfs.datanode.http.address
0.0.0.0:50075
这是datanode公开其状态的地方。 要使用web浏览器浏览HDFS,您需要激活webhdfs

<property>
  <name>dfs.webhdfs.enabled</name>
  <value>true</value>
</property>
<property>
  <name>dfs.namenode.http-address</name>
  <value>0.0.0.0:50070</value>
</property>

dfs.webhdfs.enabled
真的
dfs.namenode.http-address
0.0.0.0:50070
转换为hdfs-site.xml


然后转到
http://hostname:50070
要从那里访问webHDFS UI,您可以检查所有内容。

编辑了我的问题。非常感谢你回答了我的问题。非常感谢这看起来像是网络问题。停止hdfs并在192.168.11.7上启动“nc-l 50075”,然后从计算机上启动“telnet 192.168.11.7 50075”。确保TCP连接工作,如果不工作,请调查网络配置。这看起来像是网络问题。停止hdfs并在192.168.11.7上启动“nc-l 50075”,然后从计算机上启动“telnet 192.168.11.7 50075”。确保TCP连接工作,如果不工作,请调查网络配置。