Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop fsck显示丢失的副本_Hadoop_Hdfs_Fsck - Fatal编程技术网

Hadoop fsck显示丢失的副本

Hadoop fsck显示丢失的副本,hadoop,hdfs,fsck,Hadoop,Hdfs,Fsck,我运行的Hadoop 2.2.0集群有两个DataNode和一个namenode。当我尝试在namenode或任何datanode上使用hadoop fsck命令检查系统时,我得到以下结果: Target Replicas is 3 but found 2 replica(s). 我尝试在hdfs site.xml(dfs.replication为2)中更改配置,并重新启动了群集服务。在运行hadoop fsck/时,它仍显示相同的状态: Target Replicas is 3 but f

我运行的Hadoop 2.2.0集群有两个DataNode和一个namenode。当我尝试在namenode或任何datanode上使用hadoop fsck命令检查系统时,我得到以下结果:

Target Replicas is 3 but found 2 replica(s). 
我尝试在
hdfs site.xml
(dfs.replication为2)中更改配置,并重新启动了群集服务。在运行
hadoop fsck/
时,它仍显示相同的状态:

Target Replicas is 3 but found 2 replica(s).

请澄清,这是缓存问题还是错误?

通过设置dfs。复制不会停止复制。仅当创建了未指定复制的文件时,才会引用此属性。为了更改复制,可以使用以下hadoop实用程序

hadoop fs-setrep[-R][-w]

hdfs-dfs-setrep[-R][-w]


这里还可以指定/来更改整个文件系统的复制因子。

我将文件传输到HDFS,但没有指定复制因子,当时复制因子设置为3,但后来我将复制因子更改为2。然后我得到的目标副本是3个,但找到了2个副本。hadoop fs-setrep[-R][-w]是完整的命令,hdfs dfs-setrep[-R][-w]也可以工作。详细信息-谢谢,遗漏了fs