Python 如何在Tensorflow 1.13中重置MaxBytesInUse

Python 如何在Tensorflow 1.13中重置MaxBytesInUse,python,tensorflow,pytorch,Python,Tensorflow,Pytorch,我想测量TensorFlow中的峰值内存使用率,每个历元1.13 在Pyrotch中,有一个非常简单的解决方案,它使用两个函数的组合: torch.cuda.max\u memory\u allocated()和torch.cuda.reset\u max\u memory\u allocated() 在TF 1.13中,我只找到了TF.contrib.memory\u stats.MaxBytesInUse(),如果我没有弄错的话,它是从脚本开始分配的最大内存。是否有任何东西允许我重置该值?我

我想测量TensorFlow中的峰值内存使用率,每个历元1.13

在Pyrotch中,有一个非常简单的解决方案,它使用两个函数的组合:
torch.cuda.max\u memory\u allocated()
torch.cuda.reset\u max\u memory\u allocated()

在TF 1.13中,我只找到了
TF.contrib.memory\u stats.MaxBytesInUse()
,如果我没有弄错的话,它是从脚本开始分配的最大内存。是否有任何东西允许我重置该值?我想在我的用例中测量每个历元所需的GPU内存,我的一些历元需要更多,一些需要更少