在Hadoop中将dfs.blocksize设置为100Kb

在Hadoop中将dfs.blocksize设置为100Kb,hadoop,properties,hdfs,Hadoop,Properties,Hdfs,我尝试将Hadoop中的dfs.blocksize设置为100Kb,这小于默认的dfs.namenode.fs limits.min block size,即1MB 当我像这样复制文件时 hdfs dfs -Ddfs.namenode.fs-limits.min-block-size=0 -Ddfs.blocksize=102400 inp.txt /input/inp.txt 我还是觉得 copyFromLocal: Specified block size is less than con

我尝试将Hadoop中的
dfs.blocksize
设置为100Kb,这小于默认的
dfs.namenode.fs limits.min block size
,即1MB

当我像这样复制文件时

hdfs dfs -Ddfs.namenode.fs-limits.min-block-size=0 -Ddfs.blocksize=102400 inp.txt /input/inp.txt
我还是觉得

copyFromLocal: Specified block size is less than configured minimum value (dfs.namenode.fs-limits.min-block-size): 102400 < 1048576
copyFromLocal:指定的块大小小于配置的最小值(dfs.namenode.fs limits.min块大小):102400<1048576
我也尝试在
hdfs site.xml
中添加此属性。但是
dfs.namenode.fs limits.min块大小
似乎没有改变


否则我将如何更改此属性?

尝试更改/etc/hadoop/conf/hdfs-site.xml文件中dfs.namenode.fs-limits.min-block-size属性的值,然后重新启动namenode,因为这可能是命令行设置无法覆盖的最终属性。

为什么要将默认块大小更改为默认块大小的1000倍以上?