Python 在内存中存储tensorflow模型

Python 在内存中存储tensorflow模型,python,tensorflow,Python,Tensorflow,我正在编写的程序涉及在运行时在模型之间切换 我目前正在使用Saver从磁盘保存/加载模型,如下所示: 这些模型相当小,可以存储在内存中,因此我想知道是否有人知道如何在内存中存储和恢复这些模型,而不是将它们保存到磁盘 我试图修改tensorflow源代码以将模型保存到内存中,但是gen\u io\u ops似乎是在编译时生成的。另一种可能的方法是使用内存映射文件。有人知道更简单的方法吗?我会有两个不同的会话,它们有自己的计算图。或者,您可以在同一会话中复制计算图(变量、操作等的两个副本)。然后,您

我正在编写的程序涉及在运行时在模型之间切换

我目前正在使用Saver从磁盘保存/加载模型,如下所示:

这些模型相当小,可以存储在内存中,因此我想知道是否有人知道如何在内存中存储和恢复这些模型,而不是将它们保存到磁盘


我试图修改tensorflow源代码以将模型保存到内存中,但是
gen\u io\u ops
似乎是在编译时生成的。另一种可能的方法是使用内存映射文件。有人知道更简单的方法吗?

我会有两个不同的会话,它们有自己的计算图。或者,您可以在同一会话中复制计算图(变量、操作等的两个副本)。然后,您可以调用
sess.run(comp1如果使用compone,则为comp2)
,但是您希望对其进行设置。

保存到tmpfs如何?这种方法(假设两个会话都处于活动状态)会将变量保留在原来的位置,即GPU内存中;如果GPU内存是一个瓶颈(通常是瓶颈),OP需要一个解决方案将非活动会话数据从GPU移动到更便宜/更大的系统RAM。非常正确。我是根据他的评论写的:“模型相当小,可以存储在内存中。”。我想你可以在RAM上有两个集的副本,在GPU内存上有一个计算集,然后写一个“传输”操作,将当前值从GPU复制到RAM,反之亦然,如果需要的话,但一旦它们不再适合内存,我会研究其他选项。