Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/360.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
HBASE备份—用于导出/导入的java api是如何工作的?_Java_Hadoop_Backup_Hbase_Bigdata - Fatal编程技术网

HBASE备份—用于导出/导入的java api是如何工作的?

HBASE备份—用于导出/导入的java api是如何工作的?,java,hadoop,backup,hbase,bigdata,Java,Hadoop,Backup,Hbase,Bigdata,我正在备份~70TB的HBASE数据存储。我们已经决定使用HDFS的单表备份(目前)。我在这里遇到了用于导出/导入的Java API:。Apache的网站上没有太多的信息,我想知道人们是否对导出/导入工作有更多的了解?我想回答/确认的主要问题是,即使在完整的namenode崩溃之后,导入是否仍能工作 提前感谢,, -Aaron导出/导入实际上是MapReduce作业,因此其行为与任何其他MapReduce作业一样。如果NN崩溃,则导出/导入将失败。准确地说,你的地图绘制者/还原者会被杀死。您可能

我正在备份~70TB的HBASE数据存储。我们已经决定使用HDFS的单表备份(目前)。我在这里遇到了用于导出/导入的Java API:。Apache的网站上没有太多的信息,我想知道人们是否对导出/导入工作有更多的了解?我想回答/确认的主要问题是,即使在完整的namenode崩溃之后,导入是否仍能工作

提前感谢,,
-Aaron

导出/导入实际上是MapReduce作业,因此其行为与任何其他MapReduce作业一样。如果NN崩溃,则导出/导入将失败。准确地说,你的地图绘制者/还原者会被杀死。您可能会遇到java.net.ConnectException