Tensorflow中的BytesInUse是获取一个GPU分区上使用的所有GPU内存,还是仅获取BytesInUse所在模型使用的GPU内存?
如果gpu0上运行多个Tensorflow模型,则 在model1中运行“tf.contrib.memory_stats.BytesInUse()”,结果是所有模型使用的gpu内存,还是只有model1使用的内存 如果我已经有一个Tensorflow模型在GPU上运行,那么如何通过在另一个python脚本中使用BytesInUse来获得该模型使用的GPU内存量呢Tensorflow中的BytesInUse是获取一个GPU分区上使用的所有GPU内存,还是仅获取BytesInUse所在模型使用的GPU内存?,tensorflow,Tensorflow,如果gpu0上运行多个Tensorflow模型,则 在model1中运行“tf.contrib.memory_stats.BytesInUse()”,结果是所有模型使用的gpu内存,还是只有model1使用的内存 如果我已经有一个Tensorflow模型在GPU上运行,那么如何通过在另一个python脚本中使用BytesInUse来获得该模型使用的GPU内存量呢