Python 2.7 在tensorflow中将权重保存到内存
我正在使用python2.7和tensorflow,需要根据下一次计算的结果保存权重。因此,我需要临时保存以前的权重,一种方法是使用:Python 2.7 在tensorflow中将权重保存到内存,python-2.7,tensorflow,Python 2.7,Tensorflow,我正在使用python2.7和tensorflow,需要根据下一次计算的结果保存权重。因此,我需要临时保存以前的权重,一种方法是使用: saver = tf.train.Saver(...variables...) saver.save(sess, 'my-model', global_step=step) 但问题是权重会被保存到磁盘上,这相当慢,而且随着时间的推移会累积起来,因为我必须临时保存每一步的权重。有没有办法将权重临时保存到内存中? 另一种方法是将权重变量声明为占位符,将每个步骤后的
saver = tf.train.Saver(...variables...)
saver.save(sess, 'my-model', global_step=step)
但问题是权重会被保存到磁盘上,这相当慢,而且随着时间的推移会累积起来,因为我必须临时保存每一步的权重。有没有办法将权重临时保存到内存中?
另一种方法是将权重变量声明为占位符,将每个步骤后的权重保存到其他虚拟权重变量,然后将每个步骤的临时权重变量传递回占位符。但这很不令人满意。无论如何,你为什么需要保存重量?你能简单地为权重设置reuse=True吗?这里,它建议我们应该为一个目的“构建多个图”。这个技巧依赖于保存和加载来共享图之间的权重。您是如何得到解决方案的?我也想保存/加载每个步骤。