Pytorch K40c上CUDA 10.1的问题
我在K40c GPU上使用Pytork。我使用conda和以下命令安装PyTorch:Pytorch K40c上CUDA 10.1的问题,pytorch,nvidia,Pytorch,Nvidia,我在K40c GPU上使用Pytork。我使用conda和以下命令安装PyTorch: conda install pytorch torchvision cudatoolkit=10.1 -c pytorch 安装进展顺利。但是,我在运行cuda prpgrams时遇到问题。下面是一个最起码的例子: import torch print(torch.cuda.is_available()) print(torch.version.cuda) x = torch.tensor(1.0).cu
conda install pytorch torchvision cudatoolkit=10.1 -c pytorch
安装进展顺利。但是,我在运行cuda prpgrams时遇到问题。下面是一个最起码的例子:
import torch
print(torch.cuda.is_available())
print(torch.version.cuda)
x = torch.tensor(1.0).cuda()
y = torch.tensor(2.0).cuda()
print(x+y)
输出为:
True
10.1.243
Traceback (most recent call last):
File "example.py", line 8, in <module>
print(x+y)
RuntimeError: CUDA error: no kernel image is available for execution on the device
看起来Pytork可以正确检测GPU和cuda,但在实际计算时失败。Pytork的当前版本不支持cc3.5设备。请参阅@RobertCrovella,如果您将您的评论作为答案,会更好。pytorch的当前版本是在不支持cc3.5设备的情况下构建的。请参阅@RobertCrovella,如果您将您的评论作为答案,会更好。
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 418.74 Driver Version: 418.74 CUDA Version: 10.1 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla K40c On | 00000000:04:00.0 Off | 0 |
| 23% 39C P8 23W / 235W | 0MiB / 11441MiB | 0% Default |
+-------------------------------+----------------------+----------------------+