Machine learning 将单个大型Google驱动器存档导入共享Google Colab项目
我正在做一个班级项目,在那里我们正在使用GoogleColabs中的一个大数据集。值得注意的是,如果运行时断开连接,则不会保存该文件。因此,我将数据集下载到了我的个人硬盘上,但我很难让Colabs项目访问它。我也不能只是挂载我的驱动器,因为还有其他人在做这个 有没有办法在Colabs中下载驱动器文件上的link sharing=onMachine learning 将单个大型Google驱动器存档导入共享Google Colab项目,machine-learning,google-drive-api,google-colaboratory,Machine Learning,Google Drive Api,Google Colaboratory,我正在做一个班级项目,在那里我们正在使用GoogleColabs中的一个大数据集。值得注意的是,如果运行时断开连接,则不会保存该文件。因此,我将数据集下载到了我的个人硬盘上,但我很难让Colabs项目访问它。我也不能只是挂载我的驱动器,因为还有其他人在做这个 有没有办法在Colabs中下载驱动器文件上的link sharing=on 保存经过训练的模型的方法也很有用,但共享它和保存的文件的问题仍然适用。我知道有两种方法 如果你只想和你的朋友分享,而不想公开,你可以通过谷歌硬盘分享。每个朋友都需要
保存经过训练的模型的方法也很有用,但共享它和保存的文件的问题仍然适用。我知道有两种方法 如果你只想和你的朋友分享,而不想公开,你可以通过谷歌硬盘分享。每个朋友都需要
auth.authenticate\u user()
,然后使用pydrive
加载给定文件ID的文件
如果你能把它公之于众,那就更容易了。任何人都可以下载该文件
!gdown --id xxxxxxxxx
其中xxxxxxx
是文件ID。第二个文件正是我在那里寻找的。