Google bigquery 有没有办法从URL上传到CloudStorage?

Google bigquery 有没有办法从URL上传到CloudStorage?,google-bigquery,google-cloud-storage,Google Bigquery,Google Cloud Storage,有一个指向压缩CSV文件的公共URL (实际上大约有100个URL,其中每个zip文件约为250MB,未压缩1.6GB) 我希望这些数据在CloudStorage中,这样我就可以在BigQuery中处理它,但我显然不想将这些数据下载到另一台服务器上,只是为了扭转重新上传到CS的局面 这可能吗?抱歉,目前不可能。抱歉,目前不可能。出于好奇(如果您愿意分享),这是什么公共数据?我们一直在为BigQuery上的演示应用/演示寻找大型公共数据源!我完全愿意与大家分享,因为这是谷歌的数据集。我知道有pub

有一个指向压缩CSV文件的公共URL

(实际上大约有100个URL,其中每个zip文件约为250MB,未压缩1.6GB)

我希望这些数据在CloudStorage中,这样我就可以在BigQuery中处理它,但我显然不想将这些数据下载到另一台服务器上,只是为了扭转重新上传到CS的局面


这可能吗?

抱歉,目前不可能。

抱歉,目前不可能。

出于好奇(如果您愿意分享),这是什么公共数据?我们一直在为BigQuery上的演示应用/演示寻找大型公共数据源!我完全愿意与大家分享,因为这是谷歌的数据集。我知道有publicdata.samples.trigrams,但我对2-gram数据集特别感兴趣,而且trigram模式似乎与ngrams网站上列出的模式不匹配。以下是一些其他想法::-:)刚刚回复了您的反馈表。我们目前还没有任何向公共数据存储库中添加数据的计划,但这些数据仍然有可能是很好的演示。出于好奇(如果你愿意分享),这是什么公共数据?我们一直在为BigQuery上的演示应用/演示寻找大型公共数据源!我完全愿意与大家分享,因为这是谷歌的数据集。我知道有publicdata.samples.trigrams,但我对2-gram数据集特别感兴趣,而且trigram模式似乎与ngrams网站上列出的模式不匹配。以下是一些其他想法::-:)刚刚回复了您的反馈表。我们目前还没有任何向公共数据存储库中添加数据的计划,但这些数据仍然有可能是很好的演示。谢谢。