Python 使用本地GPU的Google Colaboratory本地运行时

Python 使用本地GPU的Google Colaboratory本地运行时,python,machine-learning,deep-learning,pytorch,google-colaboratory,Python,Machine Learning,Deep Learning,Pytorch,Google Colaboratory,我正在使用Colaboratory和Pytorch运行一个使用不寻常数据集的GAN,该数据集当前存储在我的机器上。为了访问这些文件,我连接了本地运行时(按照)。然而,Colaboratory现在在运行时使用我自己的GPU,这在以前的运行中是没有的。我知道这一点,因为当前的运行速度要慢得多,因为他们使用的是我的GTX 1060 6GB,而不是Colab的特斯拉K80 我用电脑检查了一下 torch.cuda.get\u设备名称(0) 当我在本地连接时,返回“GeForce GTX 1060 6G”

我正在使用Colaboratory和Pytorch运行一个使用不寻常数据集的GAN,该数据集当前存储在我的机器上。为了访问这些文件,我连接了本地运行时(按照)。然而,Colaboratory现在在运行时使用我自己的GPU,这在以前的运行中是没有的。我知道这一点,因为当前的运行速度要慢得多,因为他们使用的是我的GTX 1060 6GB,而不是Colab的特斯拉K80

我用电脑检查了一下

torch.cuda.get\u设备名称(0)

当我在本地连接时,返回“GeForce GTX 1060 6G”。即使选择了编辑->笔记本设置->硬件加速器->GPU,情况也是如此

但是,如果我没有本地连接,而是使用(默认)“连接到托管运行时”选项

torch.cuda.get\u device\u name(0)
返回“特斯拉K80”

我无法将数据集上载到驱动器,因为它是一个大型图像数据集,并且希望继续使用本地运行时

如何使用本地运行时和Colab的惊人特斯拉K80?
非常感谢您的帮助。

Colab正在使用您的GPU,因为您已将其连接到本地运行时。这就是将它连接到您自己的运行时的意义。这意味着你在使用你的机器,而不是在谷歌的服务器上处理这个过程。如果你还想使用谷歌的服务器和处理能力,我建议看一下。

这回答了你的问题:“MaZa请考虑把你的评论作为回答来回答它,好像它满足了这个问题。这能回答你的问题吗?”