hadoop将数据放在主机上,而不是放在所有集群上

hadoop将数据放在主机上,而不是放在所有集群上,hadoop,hive,Hadoop,Hive,我已经建立了一个由3个节点组成的hadoop集群进行测试。一切正常,但当我使用以下命令将文件上载到主节点时 /bin/hadoop dfs-copyFromLocalFolderName hdfsfolderName 这些文件仅反映在主节点的数据节点中 我认为hadoop将分割输入文件,并将块分布在所有从节点上 我想知道我是否缺少任何配置,或者是hadoop的行为方式???你的意思是整个文件只放在一台机器上?你如何验证?谢谢你的回复。我通过检查网页上每个节点中的块数来验证它。其他两个节点有0个块

我已经建立了一个由3个节点组成的hadoop集群进行测试。一切正常,但当我使用以下命令将文件上载到主节点时

/bin/hadoop dfs-copyFromLocalFolderName hdfsfolderName

这些文件仅反映在主节点的数据节点中

我认为hadoop将分割输入文件,并将块分布在所有从节点上


我想知道我是否缺少任何配置,或者是hadoop的行为方式???

你的意思是整个文件只放在一台机器上?你如何验证?谢谢你的回复。我通过检查网页上每个节点中的块数来验证它。其他两个节点有0个块,1台机器有大约68个块。其他DNs是否正常运行?运行一次平衡器,看看是否有什么不同。DNs已启动并运行,我甚至可以在群集上运行映射/减少作业。我看到,当第一个节点的磁盘容量耗尽时,它开始将数据移动到第二个节点。这让我觉得我缺少了一些配置。有没有一个hadoop如何分割数据的策略??