Hadoop 无法保留配置单元表

Hadoop 无法保留配置单元表,hadoop,hive,apache-spark,Hadoop,Hive,Apache Spark,我已经在ubuntu上建立了一个单节点hadoop集群。我已经在我的机器上安装了hadoop 2.6版本 问题: 每次我创建配置单元表并将数据加载到其中时,我都可以通过查询来查看数据,但一旦我关闭hadoop,表就会被删除。我有没有办法保留它们,或者我缺少什么设置 我尝试了一些提供的在线解决方案,但没有任何效果,请帮助我解决这个问题 大宗报价 谢谢 B配置单元表数据位于hadoop hdfs上,配置单元只需添加一个元数据,并为用户提供类似sql的命令,以防止他们写入基本的MR作业。因此,如果关闭

我已经在ubuntu上建立了一个单节点hadoop集群。我已经在我的机器上安装了hadoop 2.6版本

问题: 每次我创建配置单元表并将数据加载到其中时,我都可以通过查询来查看数据,但一旦我关闭hadoop,表就会被删除。我有没有办法保留它们,或者我缺少什么设置

我尝试了一些提供的在线解决方案,但没有任何效果,请帮助我解决这个问题

大宗报价

谢谢
B

配置单元表数据位于hadoop hdfs上,配置单元只需添加一个
元数据
,并为用户提供类似sql的命令,以防止他们写入基本的MR作业。因此,如果关闭hadoop群集,配置单元将无法在表中找到数据


但是如果你说当你重新启动hadoop集群时,数据就会丢失,这是另一个问题

似乎您正在使用默认derby作为元存储。请配置配置单元元存储。我正在指向链接。请将其搁置。