Google bigquery 谷歌大查询最快的本地保存方式

Google bigquery 谷歌大查询最快的本地保存方式,google-bigquery,Google Bigquery,目前我的代码如下: query_job = bqClient.query(query) iterator = query_job.result(timeout=600) rows = list(iterator) df = pd.DataFrame(data=[list(x.values()) for x in rows], columns=list(rows[0].keys())) df.to_csv("x.csv") 有没有办法直接将迭代器保存为csv?在数百万行上做我正在做的事情有点慢

目前我的代码如下:

query_job = bqClient.query(query)
iterator = query_job.result(timeout=600)
rows = list(iterator)
df =  pd.DataFrame(data=[list(x.values()) for x in rows], columns=list(rows[0].keys()))
df.to_csv("x.csv")

有没有办法直接将迭代器保存为csv?在数百万行上做我正在做的事情有点慢

根据您的问题,您的问题与性能有关。因此,我想询问您关于方法到\u csv的最后一行代码。它有一些可选参数,对您的情况很有用,我建议您使用chunksize。此参数定义它一次写入的行数,您可以阅读更多。如果需要,还可以查看第1555行,该行显示未定义此参数时如何将其设置为1,这可能会导致性能降低。最后,我鼓励您查看“mode”参数,也可以在上述文档中找到,每个分类模式都有描述

作为额外信息,我建议您也可以使用Pub/Sub&StackDriver触发器和BigQuery将.csv文件保存到云存储