Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/assembly/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
了解Hadoop快照功能_Hadoop_Snapshot_Hadoop2_Cloudera Cdh - Fatal编程技术网

了解Hadoop快照功能

了解Hadoop快照功能,hadoop,snapshot,hadoop2,cloudera-cdh,Hadoop,Snapshot,Hadoop2,Cloudera Cdh,我试图理解Hadoop快照()的机制。 不幸的是,官方网站apache上的信息量非常有限,所以在这里发布消息 我在Hadoop集群上尝试了这个功能。 在获取快照之前,我尝试使用hdfs dfsadmin-report实用程序: [hdfs@bda11node01 ~]$ hdfs dfsadmin -report ... DFS Used: 15521319604094 (14.12 TB) 我对durrectory/tmp进行快照,并获取子目录: [hdfs@bda11node01 ~]$

我试图理解Hadoop快照()的机制。 不幸的是,官方网站apache上的信息量非常有限,所以在这里发布消息

我在Hadoop集群上尝试了这个功能。 在获取快照之前,我尝试使用
hdfs dfsadmin-report
实用程序:

[hdfs@bda11node01 ~]$ hdfs dfsadmin -report
...
DFS Used: 15521319604094 (14.12 TB)
我对durrectory
/tmp
进行快照,并获取子目录:

[hdfs@bda11node01 ~]$ hadoop fs -du -s -h  /tmp/.snapshot/snap3
5.1 T  /tmp/.snapshot/snap3
让我吃惊的第一件事是快照的大小和拍摄快照的时间。时间很快就过去了,尺寸也一样。 第二件让我吃惊的事情是hdfs实用程序的报告:

[hdfs@bda11node01 ~]$ hdfs dfsadmin -report
    ...
    DFS Used: 15521319604094 (14.12 TB)
在此之后,我从/tmp dir中删除一个子目录并运行恢复。。。这个目录被找到了。。。但我不明白怎么做。有人能描述更多的细节吗?
谢谢

HDFS快照类似于结构共享,因为新快照没有数据复制,只有指向源快照的指针(更准确地说是inode中的新记录)。它只在记录任何数据的修改(HDFS的追加和截断)上使用。这类似于许多快照实现所使用的写时拷贝(COW)

它对设计有很好的讨论,包括HDFS设计文档本身*注意:所讨论的RW快照尚未实现