没有HDFS存储的Hadoop Namenode

没有HDFS存储的Hadoop Namenode,hadoop,cluster-computing,biginsights,Hadoop,Cluster Computing,Biginsights,我已经安装了一个hadoop集群,总共有3台机器,其中2个节点充当datanodes,1个节点充当Namenode,还有一个Datanode。 我想澄清一些关于hadoop集群安装和架构的疑问。 下面是我正在寻找答案的问题列表---- 我在集群中上传了一个大约500mb大小的数据文件,然后检查了hdfs报告。 我注意到我制作的namenode在hdfs中也占据了500mb的大小,还有复制因子为2的datanodes。 这里的问题是,我希望namenode不在其上存储任何数据,简而言之,我不希望它

我已经安装了一个hadoop集群,总共有3台机器,其中2个节点充当datanodes,1个节点充当Namenode,还有一个Datanode。 我想澄清一些关于hadoop集群安装和架构的疑问。 下面是我正在寻找答案的问题列表----

  • 我在集群中上传了一个大约500mb大小的数据文件,然后检查了hdfs报告。 我注意到我制作的namenode在hdfs中也占据了500mb的大小,还有复制因子为2的datanodes。 这里的问题是,我希望namenode不在其上存储任何数据,简而言之,我不希望它作为datanode工作,因为它还存储我正在上载的文件。那么,怎样才能使它只充当主节点而不像数据节点呢
  • 我尝试在Namenode上运行hadoop-daemon.shstop命令来停止其上的datanode服务,但没有任何帮助

  • Namenode为通常为1GB的文件大小生成多少元数据?有近似值吗

  • 转到主机上$HADOOP_主目录中的conf目录。编辑名为slaves的文件,并从中删除与名称节点对应的条目。通过这种方式,您只要求其他两个节点充当从属节点,并仅将节点命名为主节点。

    感谢提供此信息,但我尝试从从属文件中删除主节点的名称,但这无助于实现此目的。我还尝试在每个节点(datanodes)上更新从属文件并删除Namenode条目,但仍然没有帮助。然后,我最终尝试创建一个排除文件,该文件将解压缩namenode上的datanode,该文件花费的时间太长。您在删除条目后重新启动了群集,对吗?是的,我尝试重新启动群集,但它没有执行所需的操作。唯一有帮助的是创建一个排除文件并解压缩namenode上的datanode服务。这就解决了问题。虽然在Zookeeper&BigSql conf.文件损坏之后,我不得不删除它们,让namenode重新创建它们。