PyTorch can';看不到GPU(torch.cuda.is\u availble()返回False)

PyTorch can';看不到GPU(torch.cuda.is\u availble()返回False),pytorch,gpu,nvidia,Pytorch,Gpu,Nvidia,我有个问题在哪里 导入火炬 打印(torch.cuda_可用() 将打印错误,并且我无法使用可用的GPU。我在代码> CONDA/CODEM>环境中尝试过,在那里安装了对应于英伟达驱动程序的PyTrar版本。我也在docker容器中尝试过,在那里我也做过同样的尝试。我在远程服务器上尝试了这两个选项,但都失败了。我知道我已经安装了正确的驱动程序版本,因为在安装PyTorch之前,我已经用nvcc--version检查了版本,并且我已经用nvidia smi检查了GPU连接,它正确地显示了机器上的

我有个问题在哪里

导入火炬
打印(torch.cuda_可用()
将打印错误,并且我无法使用可用的GPU。我在代码> CONDA/CODEM>环境中尝试过,在那里安装了对应于英伟达驱动程序的PyTrar版本。我也在docker容器中尝试过,在那里我也做过同样的尝试。我在远程服务器上尝试了这两个选项,但都失败了。我知道我已经安装了正确的驱动程序版本,因为在安装PyTorch之前,我已经用
nvcc--version
检查了版本,并且我已经用
nvidia smi
检查了GPU连接,它正确地显示了机器上的GPU

此外,我还查看了帖子并尝试导出
CUDA\u可视设备
,但没有成功


在服务器上,我有NVIDIA V100 GPU,CUDA版本为10.0(用于conda环境),在我构建的docker容器上有10.2版。我们将非常感谢您向正确方向提供的任何帮助或推动。谢谢

对于其他有此问题的人,我的服务器管理器没有更新服务器的驱动程序


我切换到另一台服务器,安装了anaconda,事情开始正常运行,即设置新环境后,
torch.cuda.is_可用()
返回
True

您尝试使用的PyTorch版本是什么?您的
nvidia smi
输出是什么?@Berriel
nvidia smi
输出太长,无法在此处写入。它基本上是8个NVIDIA V100 GPU,从0到7。我想你会在其他
nvidia smi
输出上看到正常的东西。对于装有CUDA 10.0的康达环境,它表示<代码>火炬。对于装有CUDA 10.2的docker容器,它表示<代码>火炬。对于装有CUDA 10.0的docker容器,它表示<代码>火炬。对于装有CUDA 10.2的docker容器,它表示<代码>火炬。。。我假设这是
1.5.0
nvidia smi的相关部分将是标题:)基本上是nvidia驱动程序版本。如果驱动程序兼容,它应该可以工作。顺便说一句,cuda版本的docker或您的系统有点不相关,因为PyTorch附带了自己的cuda。@Berriel他们都说驱动程序版本410.129和cuda版本10.0。出于好奇,如果我的CUDA版本不重要,那么当我从类似的地方获得下载链接时,为什么我必须选择我正在使用的CUDA版本?是的,10.2不适用于该驱动程序版本,但您的conda env应该可以工作。尝试为9.2安装PyTorch,以防万一。请考虑一个SUDO用户(如果没有)更新驱动程序。这些V100可以从更新的cuda版本中获益。