Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/fortran/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop fs.defaultFS只侦听localhost';s端口8020_Hadoop_Hdfs_Cloudera - Fatal编程技术网

Hadoop fs.defaultFS只侦听localhost';s端口8020

Hadoop fs.defaultFS只侦听localhost';s端口8020,hadoop,hdfs,cloudera,Hadoop,Hdfs,Cloudera,我有一个CDH4.3多功能一体虚拟机正在运行,我正在尝试远程安装hadoop客户端。我注意到,在不更改任何默认设置的情况下,我的hadoop集群正在侦听127.0.0.1:8020 [cloudera@localhost ~]$ netstat -lent | grep 8020 tcp 0 0 127.0.0.1:8020 0.0.0.0:* LISTEN 492 100202 [

我有一个CDH4.3多功能一体虚拟机正在运行,我正在尝试远程安装hadoop客户端。我注意到,在不更改任何默认设置的情况下,我的hadoop集群正在侦听
127.0.0.1:8020

[cloudera@localhost ~]$ netstat -lent | grep 8020
tcp        0      0 127.0.0.1:8020              0.0.0.0:*                   LISTEN      492        100202 

[cloudera@localhost ~]$ telnet ${all-in-one vm external IP} 8020
Trying ${all-in-one vm external IP}...
telnet: connect to address ${all-in-one vm external IP} Connection refused
[cloudera@localhost ~]$ telnet 127.0.0.1 8020
Trying 127.0.0.1...
Connected to 127.0.0.1.
Escape character is '^]'
我的远程计算机具有指向
${all-in-one-vm external IP}
的所有配置(
core-site.xml,hdfs-site.xml
)。当我从远程客户端运行某个程序时,我得到以下结果:

└ $ ./bin/hdfs --config /home/${myself}/hadoop-2.0.0-cdh4.3.0/etc/hadoop dfs -ls
13/10/27 05:27:53 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
ls: Call From ubuntu/127.0.1.1 to ${all-in-one vm external IP}:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
我更改了hadoop一体机虚拟机:
core-site.xml和hdfs-site.xml
下的
/etc/hadoop/conf
来自:
localhost.localdomain
->
${all-in-one-vm-external IP},
但重新启动hdfs后,它仍然侦听localhost 8020。有什么想法吗?如何使其在8020上侦听${external IP}而不是本地主机。

您应该能够直接将属性
dfs.namenode.rpc address
调整为
0.0.0:8020
以使namenode客户端IPC服务在所有接口上侦听,或者将其设置为您的特定IP以仅在那里侦听


这就是说,
all-in-one-vm-external-IP
更改您的状态应该是有效的,但是由于问题没有您的确切配置和日志,我无法解释原因。

hmmm。。。这看起来很旧,但我在使用hadoop 2.7.3时也看到了同样的问题。更改端口core-site.xml不会执行任何操作,如果值不是8020,则会导致
hdfs://myserver/