使用Hadoop运行时NFS导出列表为空
我正在尝试为我的Hadoop文件系统HDFS设置一个NFS网关,运行在Ubuntu 20.04机器上,遵循Apache自己给出的说明: 上面说,我需要停止使用Hadoop运行时NFS导出列表为空,hadoop,hdfs,nfs,Hadoop,Hdfs,Nfs,我正在尝试为我的Hadoop文件系统HDFS设置一个NFS网关,运行在Ubuntu 20.04机器上,遵循Apache自己给出的说明: 上面说,我需要停止nfs服务和rpcbind服务,然后运行Hadoop脚本来启动nfs3: [hdfs]$ $HADOOP_HOME/bin/hdfs --daemon start nfs3 我做了这一切,但没有出错 但在下一节中,他们要求我首先验证是否所有服务都已启动并正在运行,这在我看来似乎没有问题,尽管我对所有这些说法感到疑惑: root@namenod
nfs
服务和rpcbind
服务,然后运行Hadoop脚本来启动nfs3
:
[hdfs]$ $HADOOP_HOME/bin/hdfs --daemon start nfs3
我做了这一切,但没有出错
但在下一节中,他们要求我首先验证是否所有服务都已启动并正在运行,这在我看来似乎没有问题,尽管我对所有这些说法感到疑惑:
root@namenode-server:/home/jere/hadoop-3.1.4# rpcinfo -p $nfs_server_ip
program vers proto port service
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
100005 1 udp 44579 mountd
100005 1 tcp 46577 mountd
100005 2 udp 36817 mountd
100005 2 tcp 47815 mountd
100005 3 udp 42841 mountd
100005 3 tcp 45769 mountd
100003 3 tcp 2049 nfs
100003 4 tcp 2049 nfs
100227 3 tcp 2049
100003 3 udp 2049 nfs
100227 3 udp 2049
100021 1 udp 51878 nlockmgr
100021 3 udp 51878 nlockmgr
100021 4 udp 51878 nlockmgr
100021 1 tcp 37417 nlockmgr
100021 3 tcp 37417 nlockmgr
100021 4 tcp 37417 nlockmgr
真正让我不安的是,他们要求我验证HDFS名称空间是否已导出并可以装载。在HDFS文件系统中应该有装载路径的地方,我什么也得不到:
root@namenode-server:/home/jere/hadoop-3.1.4# showmount -e $nfs_server_ip
Export list for namenode-server:
你们有谁知道我做错了什么吗
PS:据我所知,在这个过程中,我可以选择运行脚本
[root]> $HADOOP_HOME/bin/hdfs --daemon start portmap
启动Hadoop自己的portmap
。这似乎没有必要。但如果我尝试这样做,我会得到以下错误:
root@home-server-lg:/home/jere/hadoop-3.1.4# bin/hdfs --daemon start portmap
ERROR: Cannot set priority of portmap process 63926