Cuda pytorch Rnn.py运行时错误:CUDNN\u状态\u内部\u错误

Cuda pytorch Rnn.py运行时错误:CUDNN\u状态\u内部\u错误,cuda,pytorch,cudnn,Cuda,Pytorch,Cudnn,我得到一个CUDNN\u状态\u内部错误,如下所示 python train_v2.py 更新: 使用Nvidia运行相同的代码时不会出错 驱动程序版本:396.26 cuda V9.1.85。torch.backends.cudnn.version: 7102我使用驱动程序版本390.67 cuda V9.1.85时出错。torch.backends.cudnn.version:7102通过以下步骤解决 导出LD_LIBRARY_PATH=/usr/local/cuda-9.1/lib64 由

我得到一个CUDNN\u状态\u内部错误,如下所示

python train_v2.py

更新: 使用Nvidia运行相同的代码时不会出错 驱动程序版本:396.26 cuda V9.1.85。torch.backends.cudnn.version: 7102我使用驱动程序版本390.67 cuda V9.1.85时出错。torch.backends.cudnn.version:7102通过以下步骤解决

导出LD_LIBRARY_PATH=/usr/local/cuda-9.1/lib64

由于nfs问题,nfs中没有pytoch缓存。例如:

$rm~/.nv-射频

$mkdir-p/tmp/$USER/.nv

$ln-s/tmp/$USER/.nv~/.nv


转到pytorch网站,选择满足cuda版本要求的版本

cu100=cuda 10.0

pip3 uninstall torch
pip3 install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl
转到“运行此命令:框”中的复制命令。不要选择任何内容,只需选择“复制命令”并粘贴到您正在使用的编辑器中即可。我希望它能起作用。对我来说,它很好用

适用于RTX 2070

提示1

提示2


你有多少GPU?nvidia smi在您的机器上的输出是什么?@RobertCrovella我在服务器上有8个GPU。我发布了nvidia smi结果。这可能需要一个完整的测试用例来确定问题所在。您想使用5GPU有什么特别的原因吗?您不想使用GPU 0有什么特别的原因吗?如果指定CUDA_VISIBLE_DEVICES=0,1,2,3,是否会出现类似错误?为什么你在问题中删掉了关于如何设置该变量的内容?@RobertCrovella,因为即使没有说CUDA_VISIBLE_DEVICES=0,1,2,3,我也会遇到同样的错误。你还没有指出你使用的是哪种CUDA或CUDNN版本。390.67应与CUDA 9.0或CUDA 9.1配合使用。如果您使用的是CUDA 9.2,则需要396.xx或更新的驱动程序。
Wed Aug  8 10:56:29 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 390.67                 Driver Version: 390.67                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX TIT...  Off  | 00000000:04:00.0 Off |                  N/A |
| 22%   21C    P8    15W / 250W |    125MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX TIT...  Off  | 00000000:05:00.0 Off |                  N/A |
| 22%   24C    P8    14W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   2  GeForce GTX TIT...  Off  | 00000000:08:00.0 Off |                  N/A |
| 22%   23C    P8    14W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   3  GeForce GTX TIT...  Off  | 00000000:09:00.0 Off |                  N/A |
| 22%   23C    P8    15W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   4  GeForce GTX TIT...  Off  | 00000000:85:00.0 Off |                  N/A |
| 22%   24C    P8    14W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   5  GeForce GTX TIT...  Off  | 00000000:86:00.0 Off |                  N/A |
| 22%   23C    P8    15W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   6  GeForce GTX TIT...  Off  | 00000000:89:00.0 Off |                  N/A |
| 22%   21C    P8    15W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   7  GeForce GTX TIT...  Off  | 00000000:8A:00.0 Off |                  N/A |
| 22%   23C    P8    15W / 250W |     11MiB / 12212MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1603      C   /usr/bin/python                              114MiB |
+-----------------------------------------------------------------------------+
pip3 uninstall torch
pip3 install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl
conda install pytorch torchvision cudatoolkit=10.2 -c pytorch
conda install pytorch-nightly cudatoolkit=10.0 -c pytorch