Hadoop 如何将数据从HAWQ推送到GREENPLUM?

Hadoop 如何将数据从HAWQ推送到GREENPLUM?,hadoop,hdfs,greenplum,external-tables,hawq,Hadoop,Hdfs,Greenplum,External Tables,Hawq,我有一个不稳定的客户,他想在一些预处理后将数据从HAWQ推送到GREENPLUM。有没有办法做到这一点?如果没有,是否可以在greenplum中创建一个外部表,从运行HAWQ的HDFS中读取它 任何帮助都将不胜感激。最简单的方法是使用外部可写表将数据从HAWQ推送到HDFS,然后使用gphdfs协议使用外部可读表从Greenplum读取数据。在我看来,这将是最快的选择 另一种选择是将数据存储在HDFS上的gzip CSV文件中,并直接从HAWQ使用它们。这样,当您需要Greenplum中的数据时

我有一个不稳定的客户,他想在一些预处理后将数据从HAWQ推送到GREENPLUM。有没有办法做到这一点?如果没有,是否可以在greenplum中创建一个外部表,从运行HAWQ的HDFS中读取它


任何帮助都将不胜感激。

最简单的方法是使用外部可写表将数据从HAWQ推送到HDFS,然后使用gphdfs协议使用外部可读表从Greenplum读取数据。在我看来,这将是最快的选择


另一种选择是将数据存储在HDFS上的gzip CSV文件中,并直接从HAWQ使用它们。这样,当您需要Greenplum中的数据时,您可以用同样的方式查询它,因为外部表HAWQ与Greenplum相同,只有底层存储是hdfs

一种方法是,您可以在HAWQ中创建一个外部(可写)表,该表将数据写入一个文件,然后您可以在Greenplum中创建一个外部(可读)表,该表将从创建的文件中读取数据

另一种方式您可以使用标准输入/输出从一台服务器复制到另一台服务器,当需要将数据从开发环境复制到产品时,我会多次使用它,反之亦然

另一种方法您可以使用pg_dump/gp_dump为特定的表/表设置备份,然后使用pg_restore/gp_restore进行恢复


谢谢

真的吗,琼斯??现在你说你的客户不稳定P