Python 运行pytorch时如何让cuda加载?

Python 运行pytorch时如何让cuda加载?,python,tensorflow,pytorch,gpu,Python,Tensorflow,Pytorch,Gpu,我有一个使用Pytork和cudatoolkit 10.1的旧conda虚拟环境。我能够运行代码,并且在开始时总能收到以下消息: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcudart.so.10.1 然而,我用cudatoolkit 11.0创建了一个新的虚拟环境,但是现在这个消息并没有在代码的开头运行(我也没有收到错误消息说它找

我有一个使用Pytork和cudatoolkit 10.1的旧conda虚拟环境。我能够运行代码,并且在开始时总能收到以下消息:

I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcudart.so.10.1

然而,我用cudatoolkit 11.0创建了一个新的虚拟环境,但是现在这个消息并没有在代码的开头运行(我也没有收到错误消息说它找不到文件),当代码尝试使用gpu时,它最终崩溃。如何确保它正确加载GPU支持?

在Tensorflow中,确保代码在GPU上正确运行, 运行此示例代码

import tensorflow as tf
tf.debugging.set_log_device_placement(True)

# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)

print(c)

#Output : It loads the GPU support
Executing op MatMul in device /job:localhost/replica:0/task:0/device:GPU:0
tf.Tensor(
[[22. 28.]
 [49. 64.]], shape=(2, 2), dtype=float32)

我在跑火把。但当我检查它是否表示gpu已启用时,它总是返回true。由于某些原因,它仍然崩溃thoughLooks、Tensorflow和Pytorch安装在同一环境中。为每个框架创建虚拟环境,并添加CUDA和cuDNN库路径以启用GPU。谢谢