如何在Google Colab中启用pytorch GPU支持?

如何在Google Colab中启用pytorch GPU支持?,gpu,pytorch,google-colaboratory,Gpu,Pytorch,Google Colaboratory,如何使Pytork在GPU上工作 我已在google colab笔记本中成功安装了pytorch: Tensorflow报告GPU已就位: 但torch.device功能以某种方式失败: 如何解决这个问题?我遇到了同样的问题 试着像这样安装火炬: # http://pytorch.org/ from os import path from wheel.pep425tags import get_abbr_impl, get_impl_ver, get_abi_tag platform = '

如何使Pytork在GPU上工作

我已在google colab笔记本中成功安装了pytorch: Tensorflow报告GPU已就位:

但torch.device功能以某种方式失败:

如何解决这个问题?

我遇到了同样的问题

试着像这样安装火炬:

# http://pytorch.org/
from os import path
from wheel.pep425tags import get_abbr_impl, get_impl_ver, get_abi_tag
platform = '{}{}-{}'.format(get_abbr_impl(), get_impl_ver(), get_abi_tag())

accelerator = 'cu80' #'cu80' if path.exists('/opt/bin/nvidia-smi') else 'cpu'
print('Platform:', platform, 'Accelerator:', accelerator)

!pip install --upgrade --force-reinstall -q http://download.pytorch.org/whl/{accelerator}/torch-0.4.0-{platform}-linux_x86_64.whl torchvision

import torch
print('Torch', torch.__version__, 'CUDA', torch.version.cuda)
print('Device:', torch.device('cuda:0'))
输出应为:

平台:cp36-cp36m加速器:cu80火炬0.4.0 CUDA 8.0.61
设备:cuda:0

一些浮动的代码段使用了
torch-0.3.0.post4-{platform}-linux\u x86\u 64.whl
,这将导致相同的错误,因为
device
是torch-4的一个功能。如果您已经安装了错误的版本,您可能需要执行
!pip卸载火炬


另外,请确保在“编辑>笔记本设置>硬件加速器”下启用GPU。

您可以使用本教程:

例如,对于CUDA 9.2和Python 3.6:

!pip3 install http://download.pytorch.org/whl/cu92/torch-0.4.1-cp36-cp36m-linux_x86_64.whl
!pip3 install torchvision
现在要使用PyTorch检查GPU设备:

torch.cuda.get_device_name(0)

我在Google Colab中的结果是特斯拉K80。

除了在菜单“运行时”->更改运行时类型下启用GPU外,还通过以下方式启用GPU支持:

import torch

if torch.cuda.is_available():
  device = torch.device("cuda")
else:
  device = torch.device("cpu")

您可以通过单击“运行时”菜单下的“更改运行时类型”来启用GPU。目前还提供“TPU”支持

您可以使用
火炬定义
设备
。设备

import torch

DEVICE = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
我一试就行了。