如何监视Tensorflow服务分配的GPU内存

如何监视Tensorflow服务分配的GPU内存,tensorflow,memory,tensorflow-serving,Tensorflow,Memory,Tensorflow Serving,当我使用nvidia smi命令时,我可以在进程部分看到Tensorflow服务分配了多少内存。有没有办法检查加载的模型实际使用了多少?我如何知道是否还有一些可用内存来加载下一个型号?这一点已经讨论过,但tensorflow服务没有任何特定功能可以帮助您进行此操作。这一点已经讨论过,但tensorflow服务没有任何特定功能可以帮助您进行此操作。

当我使用
nvidia smi
命令时,我可以在进程部分看到Tensorflow服务分配了多少内存。有没有办法检查加载的模型实际使用了多少?我如何知道是否还有一些可用内存来加载下一个型号?

这一点已经讨论过,但tensorflow服务没有任何特定功能可以帮助您进行此操作。这一点已经讨论过,但tensorflow服务没有任何特定功能可以帮助您进行此操作。