使用Hadoop运行时NFS导出列表为空

使用Hadoop运行时NFS导出列表为空,hadoop,hdfs,nfs,Hadoop,Hdfs,Nfs,我正在尝试为我的Hadoop文件系统HDFS设置一个NFS网关,运行在Ubuntu 20.04机器上,遵循Apache自己给出的说明: 上面说,我需要停止nfs服务和rpcbind服务,然后运行Hadoop脚本来启动nfs3: [hdfs]$ $HADOOP_HOME/bin/hdfs --daemon start nfs3 我做了这一切,但没有出错 但在下一节中,他们要求我首先验证是否所有服务都已启动并正在运行,这在我看来似乎没有问题,尽管我对所有这些说法感到疑惑: root@namenod

我正在尝试为我的Hadoop文件系统HDFS设置一个NFS网关,运行在Ubuntu 20.04机器上,遵循Apache自己给出的说明:

上面说,我需要停止
nfs
服务和
rpcbind
服务,然后运行Hadoop脚本来启动
nfs3

[hdfs]$ $HADOOP_HOME/bin/hdfs --daemon start nfs3
我做了这一切,但没有出错

但在下一节中,他们要求我首先验证是否所有服务都已启动并正在运行,这在我看来似乎没有问题,尽管我对所有这些说法感到疑惑:

root@namenode-server:/home/jere/hadoop-3.1.4# rpcinfo -p $nfs_server_ip
   program vers proto   port  service
    100000    4   tcp    111  portmapper
    100000    3   tcp    111  portmapper
    100000    2   tcp    111  portmapper
    100000    4   udp    111  portmapper
    100000    3   udp    111  portmapper
    100000    2   udp    111  portmapper
    100005    1   udp  44579  mountd
    100005    1   tcp  46577  mountd
    100005    2   udp  36817  mountd
    100005    2   tcp  47815  mountd
    100005    3   udp  42841  mountd
    100005    3   tcp  45769  mountd
    100003    3   tcp   2049  nfs
    100003    4   tcp   2049  nfs
    100227    3   tcp   2049
    100003    3   udp   2049  nfs
    100227    3   udp   2049
    100021    1   udp  51878  nlockmgr
    100021    3   udp  51878  nlockmgr
    100021    4   udp  51878  nlockmgr
    100021    1   tcp  37417  nlockmgr
    100021    3   tcp  37417  nlockmgr
    100021    4   tcp  37417  nlockmgr
真正让我不安的是,他们要求我验证HDFS名称空间是否已导出并可以装载。在HDFS文件系统中应该有装载路径的地方,我什么也得不到:

root@namenode-server:/home/jere/hadoop-3.1.4# showmount -e $nfs_server_ip
Export list for namenode-server:
你们有谁知道我做错了什么吗


PS:据我所知,在这个过程中,我可以选择运行脚本

[root]> $HADOOP_HOME/bin/hdfs --daemon start portmap
启动Hadoop自己的
portmap
。这似乎没有必要。但如果我尝试这样做,我会得到以下错误:

root@home-server-lg:/home/jere/hadoop-3.1.4# bin/hdfs --daemon start portmap
ERROR: Cannot set priority of portmap process 63926