Python 在Tensorboard中复制的所有变量是什么?

Python 在Tensorboard中复制的所有变量是什么?,python,tensorflow,tensorboard,Python,Tensorflow,Tensorboard,我是Tensorflow的新手,现在经营着一家基本的CNN。作为可视化培训过程的一种方式,我构建了一个损失和准确的摘要,以便在Tensorboard中查看以下内容: tf.summary.scalar("loss", cost) tf.summary.scalar("accuracy", accuracy) 我草签总结如下。(get_logdir_string()返回由给定参数和当前日期时间组成的唯一字符串) 然后,对于每个小批量迭代,我执行以下操作: _, summary = sess.ru

我是Tensorflow的新手,现在经营着一家基本的CNN。作为可视化培训过程的一种方式,我构建了一个损失和准确的摘要,以便在Tensorboard中查看以下内容:

tf.summary.scalar("loss", cost)
tf.summary.scalar("accuracy", accuracy)
我草签总结如下。(get_logdir_string()返回由给定参数和当前日期时间组成的唯一字符串)

然后,对于每个小批量迭代,我执行以下操作:

_, summary = sess.run([optimizer, merged_summary_op], feed_dict={x: batch_x, 
                                                                 y_true: batch_y, 
                                                                 keep_prob: dropout})
summary_writer.add_summary(summary, step * batch_size)
然后我运行Tensorboard并看到如下内容,其中每个变量中只有第一个(不带后缀)包含数据:


以前有人遇到过这种情况吗?谢谢

我找到了罪魁祸首,我想把它贴在这里以备将来参考


结果是,我需要在每次跑步之前调用
tf.reset\u default\u graph()

看起来每个训练步骤都有精度/损失。你跑了多少个训练步?12? “summary_writer.add_summary(summary,step*batch_size)”不应该是“summary_writer.add_summary(summary,step)”吗?这一切都被包装在一个循环中,因为我的批次大小为64,出于某种原因,我不允许编辑我以前的评论-请忽略它,因为我无意中提交了它@姚章:这一切都被包装在一个循环中,而步长*批大小_, summary = sess.run([optimizer, merged_summary_op], feed_dict={x: batch_x, y_true: batch_y, keep_prob: dropout}) summary_writer.add_summary(summary, step * batch_size)