Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/security/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
为什么不是';hadoop是否向所有节点分发文件?_Hadoop_Hdfs - Fatal编程技术网

为什么不是';hadoop是否向所有节点分发文件?

为什么不是';hadoop是否向所有节点分发文件?,hadoop,hdfs,Hadoop,Hdfs,我根据中的演练设置了一个4节点的hadoop集群。我使用了1的复制(集群只是为了测试) 我从本地复制了一个2GB的文件。在http接口中浏览文件时,我看到它被拆分为31个块,但所有块都位于一个节点(主节点)上 这是正确的吗?如何调查原因?它们都在一个节点上,因为默认情况下Hadoop将首先写入本地节点。我猜您使用的是来自该节点的Hadoop客户端。因为您有一个复制,所以它只会在该节点上 由于您只是在玩游戏,因此可能需要强制分散数据。要做到这一点,您可以使用hadoop重新平衡器运行。几分钟后控制

我根据中的演练设置了一个4节点的hadoop集群。我使用了1的复制(集群只是为了测试)

我从本地复制了一个2GB的文件。在http接口中浏览文件时,我看到它被拆分为31个块,但所有块都位于一个节点(主节点)上


这是正确的吗?如何调查原因?

它们都在一个节点上,因为默认情况下Hadoop将首先写入本地节点。我猜您使用的是来自该节点的Hadoop客户端。因为您有一个复制,所以它只会在该节点上


由于您只是在玩游戏,因此可能需要强制分散数据。要做到这一点,您可以使用
hadoop重新平衡器运行。几分钟后控制它。

它们都在一个节点上,因为默认情况下Hadoop将首先写入本地节点。我猜您使用的是来自该节点的Hadoop客户端。因为您有一个复制,所以它只会在该节点上


由于您只是在玩游戏,因此可能需要强制分散数据。要做到这一点,您可以使用
hadoop重新平衡器运行。几分钟后控制它。

hadoop balancer告诉我“集群是平衡的”。正在退出…“hadoop balancer给了我”群集已平衡。退出…'