Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何在tensorflow中恢复模型而不使tensorboard变得凌乱?_Tensorflow - Fatal编程技术网

如何在tensorflow中恢复模型而不使tensorboard变得凌乱?

如何在tensorflow中恢复模型而不使tensorboard变得凌乱?,tensorflow,Tensorflow,当我通过tf.train.Saver恢复我的模型时,我的张力板上的损失变得非常混乱 它似乎是从0迭代开始的,当它恢复时,有没有办法让它看起来更好?使用一个变量(trainable=False)来指示迭代,并随着训练的进行增加变量。每当我们想将摘要添加到tensorboard时,我们都会运行该变量,并将结果作为global\u步骤传递到add\u summary 比如说 #前面提到的变量,计算训练步骤 train\u steps=tf.get\u变量('train\u steps',shape=

当我通过
tf.train.Saver
恢复我的模型时,我的张力板上的损失变得非常混乱

它似乎是从
0
迭代开始的,当它恢复时,有没有办法让它看起来更好?

使用一个变量(trainable=False)来指示迭代,并随着训练的进行增加变量。每当我们想将摘要添加到tensorboard时,我们都会运行该变量,并将结果作为
global\u步骤
传递到
add\u summary

比如说

#前面提到的变量,计算训练步骤
train\u steps=tf.get\u变量('train\u steps',shape=[],initializer=tf.constant\u initializer(),trainable=False)
步骤op=tf.分配(训练步骤,训练步骤+1)
#每当执行优化时,更新学习步骤
使用tf.control_依赖项([step_op]):
opt_op=优化(损失)
...
训练步骤,总结=sess.run([训练步骤,选择步骤,合并步骤],提要内容=提要内容)
#将摘要写在张力板上
编写者。添加摘要(摘要、训练步骤)
#保存模型
saver.save(sess,文件名)

如果在调用
最小化
函数时将
训练步骤
传递给优化器,请不要使用
步骤
,如下所示:
优化器=tf.train.AdamOptimizer。最小化(成本,全局步骤=训练步骤)
它将自动更新。更准确地说,每次优化器更新可训练变量时,它也会增加它的
全局步骤
参数。感谢您指出,您肯定是对的。但是,当我们不将日志记录操作与优化操作联系起来时,上述实现将派上用场。例如,当我们进行强化学习时,我们可能只想在一集结束时记录分数。