如何使用gsutil compose在python代码中连接Gogole存储对象

如何使用gsutil compose在python代码中连接Gogole存储对象,python,google-bigquery,gsutil,Python,Google Bigquery,Gsutil,我知道这个词的语法 gsutil组合gs://bucket/obj1[gs://bucket/obj2…]gs://bucket/composite 如果有人能帮助我在python代码中使用实际的python实现。thnx 否则,如果有更好的方法将较大的BQ数据导出到GSC?您可能会希望使用Google Cloud Storage的Python客户端库,它有一个compose()方法来完成此操作: 在集成测试代码中可以看到示例用法: 您可能想使用Google云存储的Python客户端库,它有一

我知道这个词的语法 gsutil组合gs://bucket/obj1[gs://bucket/obj2…]gs://bucket/composite

如果有人能帮助我在python代码中使用实际的python实现。thnx


否则,如果有更好的方法将较大的BQ数据导出到GSC?

您可能会希望使用Google Cloud Storage的Python客户端库,它有一个
compose()
方法来完成此操作:

在集成测试代码中可以看到示例用法:

您可能想使用Google云存储的Python客户端库,它有一个
compose()
方法来完成此任务:

在集成测试代码中可以看到示例用法:

有没有更好的方法将BQ数据导出到GSC而不进行分解?我的数据可能超过1.5/2 GBNope。文档中指出,“BigQuery最多可以将1 GB的数据导出到一个文件中。如果导出的数据超过1 GB,则必须将数据导出到多个文件中。”不确定处理此数据所使用的管道类型,但理想情况下,您需要创建某种抽象来流式传输/读取来自多个文件或GCS对象的输入。有没有更好的方法将BQ数据导出到GSC而不进行分解?我的数据可能超过1.5/2 GBNope。文档中指出,“BigQuery最多可以将1GB的数据导出到一个文件中。如果导出的数据超过1GB,则必须将数据导出到多个文件中。”不确定处理这些数据所使用的管道类型,但理想情况下,您应该创建某种抽象,从多个文件或GCS对象流式传输/读取输入。