Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow中的BytesInUse是获取一个GPU分区上使用的所有GPU内存,还是仅获取BytesInUse所在模型使用的GPU内存?_Tensorflow - Fatal编程技术网

Tensorflow中的BytesInUse是获取一个GPU分区上使用的所有GPU内存,还是仅获取BytesInUse所在模型使用的GPU内存?

Tensorflow中的BytesInUse是获取一个GPU分区上使用的所有GPU内存,还是仅获取BytesInUse所在模型使用的GPU内存?,tensorflow,Tensorflow,如果gpu0上运行多个Tensorflow模型,则 在model1中运行“tf.contrib.memory_stats.BytesInUse()”,结果是所有模型使用的gpu内存,还是只有model1使用的内存 如果我已经有一个Tensorflow模型在GPU上运行,那么如何通过在另一个python脚本中使用BytesInUse来获得该模型使用的GPU内存量呢

如果gpu0上运行多个Tensorflow模型,则 在model1中运行“tf.contrib.memory_stats.BytesInUse()”,结果是所有模型使用的gpu内存,还是只有model1使用的内存

如果我已经有一个Tensorflow模型在GPU上运行,那么如何通过在另一个python脚本中使用BytesInUse来获得该模型使用的GPU内存量呢