Google cloud storage 从谷歌云存储中提取RAR文件
我使用RAR实用程序(100GB未压缩,20GB压缩)得到了一个大的多部分压缩CSV文件,所以我有100个RAR文件部分,它们被上传到Google云存储。我需要将其解压缩到谷歌云存储。如果我能在GAE上使用Python就最好了。有什么想法吗?我不想下载、提取和上传。我想在云中完成这一切。在云中无法直接解压缩/提取RAR文件。您知道Google cloud storage 从谷歌云存储中提取RAR文件,google-cloud-storage,Google Cloud Storage,我使用RAR实用程序(100GB未压缩,20GB压缩)得到了一个大的多部分压缩CSV文件,所以我有100个RAR文件部分,它们被上传到Google云存储。我需要将其解压缩到谷歌云存储。如果我能在GAE上使用Python就最好了。有什么想法吗?我不想下载、提取和上传。我想在云中完成这一切。在云中无法直接解压缩/提取RAR文件。您知道gsutil-m(多线程/多处理)选项吗?它通过并行运行来加速传输。我建议这样做: 下载压缩存档文件 就地拆包 使用gsutil-m cp file pattern
gsutil-m
(多线程/多处理)选项吗?它通过并行运行来加速传输。我建议这样做:
- 下载压缩存档文件
- 就地拆包
- 使用
gsutil-m cp file pattern dest bucket并行上传未打包的文件
顺便说一句,您可以通过
parallel\u thread\u count
和parallel\u process\u count
变量在$HOME/.boto
文件中调整gsutil-m
使用的并行性。这个问题已经得到了回答(并被接受),但对于未来类似的用例,我建议完全在云中完成这项工作,方法是在GCE上启动一个小型Linux实例,例如,f1 micro
,然后按照Marc Cohen在中的建议运行这些步骤。这些实例预装了gsutil
,因此易于使用。完成后,只需关闭并删除微实例,因为生成的文件已经存储在谷歌云存储中
逐步说明:
<强>注:>网络带宽与VM(VCPU)的大小成正比,因此为了更快的性能,考虑创建一个更大的VM。谷歌计算引擎如下:
因此,例如,考虑到
n1-standard-1
的成本为0.05美元/小时(截至2016年10月8日),15分钟的使用成本总计为0.0125美元。您能否详细说明如何做到这一点?@Soren-我编辑了答案,添加了分步说明,希望这能有所帮助。