Hadoop使用较小的硬盘驱动器添加datanode

Hadoop使用较小的硬盘驱动器添加datanode,hadoop,hdfs,Hadoop,Hdfs,我们计划向Hadoop集群添加两个新的DataNode。在谷歌搜索了一天之后,我仍然无法回答这个问题: 如果新数据节点上的硬盘较小,会发生什么情况? 这会导致HDF的总大小变小吗 这里有一个例子 Datanode1 with 1TB Datanode2 with 1TB Total storage = 2TB 使用500GB磁盘再添加一个节点 Datanode3 with 500GB HDFS的总存储容量是多少?2.5 TB还是1.5 TB 如果是2.5TB(我希望如此),hadoop如何平

我们计划向Hadoop集群添加两个新的DataNode。在谷歌搜索了一天之后,我仍然无法回答这个问题: 如果新数据节点上的硬盘较小,会发生什么情况? 这会导致HDF的总大小变小吗

这里有一个例子

Datanode1 with 1TB
Datanode2 with 1TB
Total storage = 2TB
使用500GB磁盘再添加一个节点

Datanode3 with 500GB
HDFS的总存储容量是多少?2.5 TB还是1.5 TB


如果是2.5TB(我希望如此),hadoop如何平衡不同数据节点和不同硬盘之间的存储?

HDFS的总容量将是2.5TB。现有的块将按原样存在,一旦添加到集群中,就不会移动到新节点。要将一些块从重载节点移动到欠载节点,请在Hadoop安装中使用
bin/start balancer.sh
bin/stop balancer sh
脚本


块放置策略将确定时钟的位置。由于新节点的HDD是空的,因此放入HDFS中的新文件块更有可能到达那里。

OK。我想我现在明白了。BlockPlacementPolicyDefault.java:
/*判断一个节点是否是一个好目标。
*如果节点有足够的空间,
*没有太多的负载,并且机架没有太多的节点,则返回true(DatanodeDescriptor节点,
列出结果){
//}`因此似乎已考虑到可用空间。感谢@PraveenSripati将我指向BlockPlacementPolicyDefault