Amazon web services TensorFlow未使用GPU

Amazon web services TensorFlow未使用GPU,amazon-web-services,tensorflow,gpu,Amazon Web Services,Tensorflow,Gpu,我坐在AWS深度学习机上使用AMI。现在,我尝试运行TensorFlow中的简单初学者示例 # Creates a graph. a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a') b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b') c = tf.matmul(a, b) # Creates a session w

我坐在AWS深度学习机上使用AMI。现在,我尝试运行TensorFlow中的简单初学者示例

# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
但我的机器似乎没有使用我的GPU

MatMul_2:(MatMul):/job:localhost/replica:0/task:0/cpu:0 2017-07-09 00:51:03.830238:I tensorflow/core/common_runtime/simple_placer.cc:847]MatMul_2: (MatMul)/作业:本地主机/副本:0/任务:0/cpu:0 MatMul_1:(MatMul): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830259:I tensorflow/core/common_runtime/simple_placer.cc:847]MatMul_1: (MatMul)/作业:本地主机/副本:0/任务:0/cpu:0 MatMul:(MatMul): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830271:I tensorflow/core/common_runtime/simple_placer.cc:847]MatMul: (MatMul)/job:localhost/replica:0/task:0/cpu:0 b_2:(Const): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830283:I tensorflow/core/common_runtime/simple_placer.cc:847]b_2: (常量)/作业:本地主机/副本:0/任务:0/cpu:0 a_2:(常量): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830312:I tensorflow/core/common_runtime/simple_placer.cc:847]a_2: (常量)/作业:本地主机/副本:0/任务:0/cpu:0 b_1:(常量): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830324:I tensorflow/core/common_runtime/simple_placer.cc:847]b_1: (常量)/作业:本地主机/副本:0/任务:0/cpu:0 a_1:(常量): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830337:I tensorflow/core/common_runtime/simple_placer.cc:847]a_1: (常量)/作业:本地主机/副本:0/任务:0/cpu:0 b:(常量): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830348:I tensorflow/core/common_runtime/simple_placer.cc:847]b: (常量)/作业:本地主机/副本:0/任务:0/cpu:0 a:(常量): /作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830358:I tensorflow/core/common_runtime/simple_placer.cc:847]a: (Const)/job:localhost/replica:0/task:0/cpu:0

如果我尝试使用
tf.device('/GPU:0'):
手动指定GPU,则会出现以下错误:

InvalidArgumentError:无法为操作“MatMul_3”分配设备: 操作已显式分配给/device:GPU:0,但可用 设备是[/job:localhost/replica:0/task:0/cpu:0]。确保 设备规范是指有效的设备。[[节点:MatMul_3= MatMul[T=DT\u FLOAT,转置a=false,转置b=false, _device=“/device:GPU:0”](a_3,b_3)]]

我对AMI所做的唯一更改是将TensorFlow更新为最新版本

以下是我运行watch nvidia smi时看到的内容


1.检查您的实例,是否选择GPU?
使用“观看nvidia smi”查看GPU信息

2.检查您的AMI和tensorflow版本,可能它不支持GPU或配置错误


我使用这个AMI:Deep Learning AMI Amazon Linux(AMI-296e7850)。

你试过这个吗?你能提供更多的信息吗?您使用的是哪种AMI?谢谢您的帮助。我决定从amazon()重新启动最新可用的AMI,它可以正常工作。不确定之前出了什么问题谢谢,我在我的帖子中添加了一个关于running watch nvidia smi输出的编辑。我使用了和你相同的版本:但是Ubuntu版本。之后,我更新到TensorFlow 1.2
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.57                 Driver Version: 367.57                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla K80           On   | 0000:00:1E.0     Off |                    0 |
| N/A   44C    P8    27W / 149W |      0MiB / 11439MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+