将非常大的sqlite表导入BigQuery
我有一个相对较大的SQLite表(500万行,2GB),我正试图将其移动到Google BigQuery。我在db中的其他表中使用的简单解决方案是使用类似SQLite Manager(Firefox扩展)的东西导出到CSV,但这失败了,我认为在导出相关表时会出现内存不足错误。我正试图找到解决这个问题的最佳方法,并得出以下结论:将非常大的sqlite表导入BigQuery,sqlite,google-bigquery,Sqlite,Google Bigquery,我有一个相对较大的SQLite表(500万行,2GB),我正试图将其移动到Google BigQuery。我在db中的其他表中使用的简单解决方案是使用类似SQLite Manager(Firefox扩展)的东西导出到CSV,但这失败了,我认为在导出相关表时会出现内存不足错误。我正试图找到解决这个问题的最佳方法,并得出以下结论: 写一些可以手动编写单个巨大CSV的东西。出于许多原因,这似乎是个坏主意,但重要的是其中一个字段是文本数据,这将不可避免地与BQ的导入工具支持的任何分隔符发生冲突,我不确定
有关更多信息,请参阅。编写一个脚本,执行5行然后100行的示例,并根据需要使用bigquery、CSV、JSON(推荐)Avro。2GB不是很大,BigQuery上的未压缩限制是5TB。编写一个脚本,执行5行然后100行的示例,然后尝试使用BigQuery,CSV、JSON,(推荐)Avro,如您所愿。2GB不是很大,BigQuery的未压缩限制是5TB。