Google colaboratory 在google colab上高效存储大型数据集

Google colaboratory 在google colab上高效存储大型数据集,google-colaboratory,Google Colaboratory,我知道在媒体和数据科学上有很多与数据集相关的查询,它们解决了存储数据的问题 其中一些是:在github上上传数据;使用谷歌硬盘 但是,假设我想用48GB大小的数据集进行实验,那么我的选择是什么呢。 据我所知,github开始向您发送远程端挂断消息,google drive的存储容量上限为40 Gb 我应该试试亚马逊SE3 bucket之类的东西吗 colab pro帐户有用吗?colab pro中的磁盘空间是免费版本中可用磁盘空间的两倍。谢谢,我通过升级我的Google drive存储解决了这个

我知道在媒体和数据科学上有很多与数据集相关的查询,它们解决了存储数据的问题 其中一些是:在github上上传数据;使用谷歌硬盘 但是,假设我想用48GB大小的数据集进行实验,那么我的选择是什么呢。 据我所知,github开始向您发送远程端挂断消息,google drive的存储容量上限为40 Gb 我应该试试亚马逊SE3 bucket之类的东西吗
colab pro帐户有用吗?

colab pro中的磁盘空间是免费版本中可用磁盘空间的两倍。

谢谢,我通过升级我的Google drive存储解决了这个问题