Amazon web services TensorFlow未使用GPU
我坐在AWS深度学习机上使用AMI。现在,我尝试运行TensorFlow中的简单初学者示例Amazon web services TensorFlow未使用GPU,amazon-web-services,tensorflow,gpu,Amazon Web Services,Tensorflow,Gpu,我坐在AWS深度学习机上使用AMI。现在,我尝试运行TensorFlow中的简单初学者示例 # Creates a graph. a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a') b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b') c = tf.matmul(a, b) # Creates a session w
# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
但我的机器似乎没有使用我的GPU
MatMul_2:(MatMul):/job:localhost/replica:0/task:0/cpu:0 2017-07-09
00:51:03.830238:I
tensorflow/core/common_runtime/simple_placer.cc:847]MatMul_2:
(MatMul)/作业:本地主机/副本:0/任务:0/cpu:0 MatMul_1:(MatMul):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830259:I
tensorflow/core/common_runtime/simple_placer.cc:847]MatMul_1:
(MatMul)/作业:本地主机/副本:0/任务:0/cpu:0 MatMul:(MatMul):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830271:I
tensorflow/core/common_runtime/simple_placer.cc:847]MatMul:
(MatMul)/job:localhost/replica:0/task:0/cpu:0 b_2:(Const):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830283:I
tensorflow/core/common_runtime/simple_placer.cc:847]b_2:
(常量)/作业:本地主机/副本:0/任务:0/cpu:0 a_2:(常量):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830312:I
tensorflow/core/common_runtime/simple_placer.cc:847]a_2:
(常量)/作业:本地主机/副本:0/任务:0/cpu:0 b_1:(常量):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830324:I
tensorflow/core/common_runtime/simple_placer.cc:847]b_1:
(常量)/作业:本地主机/副本:0/任务:0/cpu:0 a_1:(常量):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830337:I
tensorflow/core/common_runtime/simple_placer.cc:847]a_1:
(常量)/作业:本地主机/副本:0/任务:0/cpu:0 b:(常量):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830348:I
tensorflow/core/common_runtime/simple_placer.cc:847]b:
(常量)/作业:本地主机/副本:0/任务:0/cpu:0 a:(常量):
/作业:本地主机/副本:0/任务:0/cpu:0 2017-07-09 00:51:03.830358:I
tensorflow/core/common_runtime/simple_placer.cc:847]a:
(Const)/job:localhost/replica:0/task:0/cpu:0
如果我尝试使用tf.device('/GPU:0'):
手动指定GPU,则会出现以下错误:
InvalidArgumentError:无法为操作“MatMul_3”分配设备:
操作已显式分配给/device:GPU:0,但可用
设备是[/job:localhost/replica:0/task:0/cpu:0]。确保
设备规范是指有效的设备。[[节点:MatMul_3=
MatMul[T=DT\u FLOAT,转置a=false,转置b=false,
_device=“/device:GPU:0”](a_3,b_3)]]
我对AMI所做的唯一更改是将TensorFlow更新为最新版本
以下是我运行watch nvidia smi时看到的内容
1.检查您的实例,是否选择GPU?
使用“观看nvidia smi”查看GPU信息 2.检查您的AMI和tensorflow版本,可能它不支持GPU或配置错误
我使用这个AMI:Deep Learning AMI Amazon Linux(AMI-296e7850)。你试过这个吗?你能提供更多的信息吗?您使用的是哪种AMI?谢谢您的帮助。我决定从amazon()重新启动最新可用的AMI,它可以正常工作。不确定之前出了什么问题谢谢,我在我的帖子中添加了一个关于running watch nvidia smi输出的编辑。我使用了和你相同的版本:但是Ubuntu版本。之后,我更新到TensorFlow 1.2
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.57 Driver Version: 367.57 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla K80 On | 0000:00:1E.0 Off | 0 |
| N/A 44C P8 27W / 149W | 0MiB / 11439MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+