更改Hadoop中现有文件的块大小
考虑一个hadoop集群,更改Hadoop中现有文件的块大小,hadoop,hdfs,Hadoop,Hdfs,考虑一个hadoop集群,hdfs site.xml中的默认块大小为64MB。但是,稍后团队决定将其更改为128MB。以下是我对上述场景的问题 此更改是否需要重新启动群集,或者将自动执行,并且所有新文件的默认块大小为128MB 块大小为64M的现有文件会发生什么情况?配置中的更改是否会自动应用于现有文件?如果它将自动完成,那么什么时候会完成?更改完成后还是集群启动后?如果不是自动完成,那么如何手动执行此块更改 正如你刚才提到的: 无论何时更改配置,都需要重新启动NameNode和DataNode
hdfs site.xml
中的默认块大小为64MB。但是,稍后团队决定将其更改为128MB。以下是我对上述场景的问题
hadoop distcp -Ddfs.block.size=XX /path/to/old/files /path/to/new/files/with/larger/block/sizes.
在第1点上—在Hadoop 1.2.1上,更改hdfs-site.xml文件中的dfs.block.size后不需要重新启动。通过查看Hadoop管理页面,可以轻松验证文件块大小 确保更改所有数据节点上的dfs.block.size