Cuda pytorch Rnn.py运行时错误:CUDNN\u状态\u内部\u错误
我得到一个CUDNN\u状态\u内部错误,如下所示 python train_v2.py 更新: 使用Nvidia运行相同的代码时不会出错 驱动程序版本:396.26 cuda V9.1.85。torch.backends.cudnn.version: 7102我使用驱动程序版本390.67 cuda V9.1.85时出错。torch.backends.cudnn.version:7102通过以下步骤解决 导出LD_LIBRARY_PATH=/usr/local/cuda-9.1/lib64 由于nfs问题,nfs中没有pytoch缓存。例如: $rm~/.nv-射频 $mkdir-p/tmp/$USER/.nv $ln-s/tmp/$USER/.nv~/.nvCuda pytorch Rnn.py运行时错误:CUDNN\u状态\u内部\u错误,cuda,pytorch,cudnn,Cuda,Pytorch,Cudnn,我得到一个CUDNN\u状态\u内部错误,如下所示 python train_v2.py 更新: 使用Nvidia运行相同的代码时不会出错 驱动程序版本:396.26 cuda V9.1.85。torch.backends.cudnn.version: 7102我使用驱动程序版本390.67 cuda V9.1.85时出错。torch.backends.cudnn.version:7102通过以下步骤解决 导出LD_LIBRARY_PATH=/usr/local/cuda-9.1/lib64 由
转到pytorch网站,选择满足cuda版本要求的版本 cu100=cuda 10.0
pip3 uninstall torch
pip3 install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl
转到“运行此命令:框”中的复制命令。不要选择任何内容,只需选择“复制命令”并粘贴到您正在使用的编辑器中即可。我希望它能起作用。对我来说,它很好用
适用于RTX 2070
提示1
提示2
你有多少GPU?nvidia smi在您的机器上的输出是什么?@RobertCrovella我在服务器上有8个GPU。我发布了nvidia smi结果。这可能需要一个完整的测试用例来确定问题所在。您想使用5GPU有什么特别的原因吗?您不想使用GPU 0有什么特别的原因吗?如果指定CUDA_VISIBLE_DEVICES=0,1,2,3,是否会出现类似错误?为什么你在问题中删掉了关于如何设置该变量的内容?@RobertCrovella,因为即使没有说CUDA_VISIBLE_DEVICES=0,1,2,3,我也会遇到同样的错误。你还没有指出你使用的是哪种CUDA或CUDNN版本。390.67应与CUDA 9.0或CUDA 9.1配合使用。如果您使用的是CUDA 9.2,则需要396.xx或更新的驱动程序。
Wed Aug 8 10:56:29 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 390.67 Driver Version: 390.67 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX TIT... Off | 00000000:04:00.0 Off | N/A |
| 22% 21C P8 15W / 250W | 125MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 1 GeForce GTX TIT... Off | 00000000:05:00.0 Off | N/A |
| 22% 24C P8 14W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 2 GeForce GTX TIT... Off | 00000000:08:00.0 Off | N/A |
| 22% 23C P8 14W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 3 GeForce GTX TIT... Off | 00000000:09:00.0 Off | N/A |
| 22% 23C P8 15W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 4 GeForce GTX TIT... Off | 00000000:85:00.0 Off | N/A |
| 22% 24C P8 14W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 5 GeForce GTX TIT... Off | 00000000:86:00.0 Off | N/A |
| 22% 23C P8 15W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 6 GeForce GTX TIT... Off | 00000000:89:00.0 Off | N/A |
| 22% 21C P8 15W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 7 GeForce GTX TIT... Off | 00000000:8A:00.0 Off | N/A |
| 22% 23C P8 15W / 250W | 11MiB / 12212MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 1603 C /usr/bin/python 114MiB |
+-----------------------------------------------------------------------------+
pip3 uninstall torch
pip3 install https://download.pytorch.org/whl/cu100/torch-1.0.1.post2-cp36-cp36m-linux_x86_64.whl
conda install pytorch torchvision cudatoolkit=10.2 -c pytorch
conda install pytorch-nightly cudatoolkit=10.0 -c pytorch