如何在tensorflow中恢复模型而不使tensorboard变得凌乱?
当我通过如何在tensorflow中恢复模型而不使tensorboard变得凌乱?,tensorflow,Tensorflow,当我通过tf.train.Saver恢复我的模型时,我的张力板上的损失变得非常混乱 它似乎是从0迭代开始的,当它恢复时,有没有办法让它看起来更好?使用一个变量(trainable=False)来指示迭代,并随着训练的进行增加变量。每当我们想将摘要添加到tensorboard时,我们都会运行该变量,并将结果作为global\u步骤传递到add\u summary 比如说 #前面提到的变量,计算训练步骤 train\u steps=tf.get\u变量('train\u steps',shape=
tf.train.Saver
恢复我的模型时,我的张力板上的损失变得非常混乱
它似乎是从0
迭代开始的,当它恢复时,有没有办法让它看起来更好?使用一个变量(trainable=False)来指示迭代,并随着训练的进行增加变量。每当我们想将摘要添加到tensorboard时,我们都会运行该变量,并将结果作为global\u步骤
传递到add\u summary
比如说
#前面提到的变量,计算训练步骤
train\u steps=tf.get\u变量('train\u steps',shape=[],initializer=tf.constant\u initializer(),trainable=False)
步骤op=tf.分配(训练步骤,训练步骤+1)
#每当执行优化时,更新学习步骤
使用tf.control_依赖项([step_op]):
opt_op=优化(损失)
...
训练步骤,总结=sess.run([训练步骤,选择步骤,合并步骤],提要内容=提要内容)
#将摘要写在张力板上
编写者。添加摘要(摘要、训练步骤)
#保存模型
saver.save(sess,文件名)
如果在调用最小化
函数时将训练步骤
传递给优化器,请不要使用步骤
,如下所示:优化器=tf.train.AdamOptimizer。最小化(成本,全局步骤=训练步骤)
它将自动更新。更准确地说,每次优化器更新可训练变量时,它也会增加它的全局步骤
参数。感谢您指出,您肯定是对的。但是,当我们不将日志记录操作与优化操作联系起来时,上述实现将派上用场。例如,当我们进行强化学习时,我们可能只想在一集结束时记录分数。