Python 在tensorflow r1.0中,每个进程的gpu内存部分不能按预期工作
我想限制每个gpu的内存使用。根据本文的建议,我做了以下工作:Python 在tensorflow r1.0中,每个进程的gpu内存部分不能按预期工作,python,python-3.x,machine-learning,tensorflow,Python,Python 3.x,Machine Learning,Tensorflow,我想限制每个gpu的内存使用。根据本文的建议,我做了以下工作: config = tf.ConfigProto(allow_soft_placement=True, gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.9)) saver = tf.train.Saver() sv = tf.train.Supervisor(logdir=FLAGS.log_root, is_ch
config = tf.ConfigProto(allow_soft_placement=True, gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.9))
saver = tf.train.Saver()
sv = tf.train.Supervisor(logdir=FLAGS.log_root,
is_chief=True,
saver=saver,
summary_op=None,
save_summaries_secs=60,
save_model_secs=FLAGS.checkpoint_secs,
global_step=model.global_step)
sess = sv.prepare_or_wait_for_session(config=config)
但它仍然不起作用(其中一个GPU的GPU Util
已达到100%)。你能告诉我如何解决这个问题吗?提前谢谢 这更多地讨论了GPU Util
的实际含义
请注意,它不是易失性GPU Util
。Volatile
实际上属于Volatile Uncorr。ECC
GPU Util实际上是独立存在的。
关于您的问题,看到100%的GPU Util是完全正常的。要查看内存是否受到限制,您应该真正查看
内存使用情况
,并估计已分配的内存量。什么是内存使用情况?你能举一个你的nvidia smi
的例子吗?@jkschin一个GPU的Volatile GPU Util
是100%,我认为这是正常的。查看Volatile GPU Util
的含义。您应该查看内存使用情况@jkschin谢谢您的更正。但这很奇怪。当Volatile GPU Util
为100%时,pool\u分配器
运行非常慢。它实际上只是GPU Util
。挥发性物质属于其他物质。我不知道慢意味着什么,但所有的GPU Util
显示的是你的GPU内核有多少在运行。如果你的内核是一个非常复杂的操作,我会毫不惊讶地看到100%。