Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
从Hadoop HDFS NameNode到本地主机的重定向错误:50075_Hadoop_Hdfs - Fatal编程技术网

从Hadoop HDFS NameNode到本地主机的重定向错误:50075

从Hadoop HDFS NameNode到本地主机的重定向错误:50075,hadoop,hdfs,Hadoop,Hdfs,我已经在我的虚拟机上安装了ApacheHadoop,并将其配置为以伪分布式模式运行。除了一件事,一切似乎都很好。我可以在虚拟机中使用hadoop命令行列出文件和创建文件夹 http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/ 当我打开 http://192.168.20.200:50070 (virtual machine IP) http://localhost:50075/browseDi

我已经在我的虚拟机上安装了ApacheHadoop,并将其配置为以伪分布式模式运行。除了一件事,一切似乎都很好。我可以在虚拟机中使用hadoop命令行列出文件和创建文件夹

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
当我打开

http://192.168.20.200:50070 (virtual machine IP) 
http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
在我的非虚拟PC上,我可以看到一些NameNode信息和链接“浏览文件系统”。此链接具有以下URL:

http://192.168.20.200:50070/nn_browsedfscontent.jsp
http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
当我点击它时,我被重定向到

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
如果我将“localhost”替换为“192.168.20.200”,一切都会正常工作

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
core-sites.xml

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
<configuration>
<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost/</value>
  <description>...</description>
</property>
</configuration>

fs.default.name
hdfs://localhost/
...
hdfs-site.xml

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
<property>
  <name>dfs.replication</name>
  <value>1</value>
  <description>Default block replication.</description>
</property>
<property>
  <name>dfs.name.dir</name>
  <value>/app/hadoopstorage/name/</value>
</property>

<property>
  <name>dfs.data.dir</name>
  <value>/app/hadoopstorage/data/</value>
</property>
<property>
  <name>dfs.webhdfs.enabled</name>
  <value>true</value>
</property>

dfs.replication
1.
默认块复制。
dfs.name.dir
/app/hadoopstorage/name/
dfs.data.dir
/应用程序/Hadoop存储/数据/
dfs.webhdfs.enabled
真的

有人知道如何解决这个问题吗?

当我的/etc/hosts文件是这样时,一切似乎都正常

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
127.0.0.1   localhost
127.0.1.1   name1
192.168.20.200 192.168.20.200  <--- added this line
127.0.0.1本地主机
127.0.1.1名称1

192.168.20.200 192.168.20.200在Hadoop生态系统中,如果主机文件在错误的IP地址上指定了
主机名,服务通常会获取并报告环回适配器地址
127.0.0.1(localhost)

http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/

如果您使用
/etc/hosts
文件执行此路径,请确保
::1
127.0.0.1
行上仅存在“localhost”或“localhost.localdomain”。

是否尝试将
fs.default.name
设置为
hdfs://192.168.20.200/
?是的,然后我会被重定向到或类似的东西对不起,不是“no.local:50075”,而是“{nameOfMachine}.local:50075”
http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/