Download 如何优化从Google Colab下载数据集的时间?

Download 如何优化从Google Colab下载数据集的时间?,download,google-colaboratory,Download,Google Colaboratory,我必须使用flicker_8k数据集。因此,我已经在我的桌面上下载了它,并使用以下命令从Google Colab访问它: 从google.colab导入文件/上传文件() 自从我开始以来已经快3个小时了,但是数据集只有16%的下载量,有没有其他方法来优化时间?不确定是加载压缩的数据集文件还是解压缩的数据集文件。我建议您将压缩后的数据集文件上传到您的谷歌硬盘。根据您的互联网速度,1GB不需要很长时间。一旦您有了它,您就可以通过安装驱动器来访问它,并使用pandas数据框函数pandas.read\

我必须使用flicker_8k数据集。因此,我已经在我的桌面上下载了它,并使用以下命令从Google Colab访问它:

从google.colab导入文件/上传文件()


自从我开始以来已经快3个小时了,但是数据集只有16%的下载量,有没有其他方法来优化时间?

不确定是加载压缩的数据集文件还是解压缩的数据集文件。我建议您将压缩后的数据集文件上传到您的谷歌硬盘。根据您的互联网速度,1GB不需要很长时间。一旦您有了它,您就可以通过安装驱动器来访问它,并使用pandas数据框函数
pandas.read\u csv('filename.zip')
读取它

要安装驱动器,请将这些命令粘贴到.py文件的顶部

from google.colab import drive
drive.mount('/content/gdrive')
dataset_file_name = os.path.join("/content/gdrive/My Drive", 'filename.zip')

不确定是加载压缩的数据集文件还是解压缩的数据集文件。我建议您将压缩后的数据集文件上传到您的谷歌硬盘。根据您的互联网速度,1GB不需要很长时间。一旦您有了它,您就可以通过安装驱动器来访问它,并使用pandas数据框函数
pandas.read\u csv('filename.zip')
读取它

要安装驱动器,请将这些命令粘贴到.py文件的顶部

from google.colab import drive
drive.mount('/content/gdrive')
dataset_file_name = os.path.join("/content/gdrive/My Drive", 'filename.zip')