Python 如何在google colab中使用Librispeech 360h数据集?
我正在使用GoogleColab(支持GPU)来训练我的ASR模型。使用train-clean-100 Librispeech数据集的模型的准确性不是很高,所以我决定使用:Python 如何在google colab中使用Librispeech 360h数据集?,python,dataset,pytorch,training-data,Python,Dataset,Pytorch,Training Data,我正在使用GoogleColab(支持GPU)来训练我的ASR模型。使用train-clean-100 Librispeech数据集的模型的准确性不是很高,所以我决定使用:torchaudio.datasets.Librispeech(“./data”,url='train-clean-360',download=True) 但是我不能下载它,因为google colab中可用的磁盘存储空间是36GB 我尝试在我的google drive帐户中上载和解压train-clean-360数据集,并将
torchaudio.datasets.Librispeech(“./data”,url='train-clean-360',download=True)
但是我不能下载它,因为google colab中可用的磁盘存储空间是36GB
我尝试在我的google drive帐户中上载和解压train-clean-360数据集,并将其装载到google colab,这样我就可以使用该数据集,而无需使用以下代码行进行下载:
torchaudio.datasets.LIBRISPEECH("/content/gdrive/My Drive/", url="train-clean-360", folder_in_archive="LibriSpeech", download=False)
但它不起作用
我做错什么了吗?
在google colab中是否有其他方法使用此数据集