Python 什么是;“运行”;及;“步骤”;是否对应于Tensorflow调试器(tfdbg)中的?

Python 什么是;“运行”;及;“步骤”;是否对应于Tensorflow调试器(tfdbg)中的?,python,tensorflow,machine-learning,Python,Tensorflow,Machine Learning,我试图了解Tensorflow调试器tfdbg的工作原理: with sv.managed_session(config=config_proto) as session: session = tf_debug.LocalCLIDebugWrapperSession(session) for i in range(config.max_epoch): session.run(model.lr) 调试器启动时,将显示以下窗口: 在阅读了文档并观看了youtube

我试图了解Tensorflow调试器tfdbg的工作原理:

with sv.managed_session(config=config_proto) as session:
    session = tf_debug.LocalCLIDebugWrapperSession(session)
    for i in range(config.max_epoch):
        session.run(model.lr)
调试器启动时,将显示以下窗口:

在阅读了文档并观看了youtube上的一个小教程后,我无法理解“run”和“step”命令实际上代表什么,更重要的是,它们与神经网络训练时间步长和时代相比如何

从文档中:

run命令使tfdbg一直执行到下一个Session.run()调用结束,该调用使用测试数据集计算模型的精度

但是
会话.run
只是:

。。。TensorFlow计算的一个“步骤”,通过运行必要的图形片段来执行每个操作并计算回迁中的每个张量,用feed_dict中的值替换相应的输入值

我是TF的新手,我仍然不明白如何用神经网络步骤和时代来解释“运行”。当然,这使得使用tfdbg变得很困难,因为经过几次“运行”后,我得到了一个大约5000行的杂项张量和运算的列表,我需要搜索它们,我不明白我在看什么,一个时间步或一个历元的结果。当我们开发一个神经网络模型时,我们不会考虑会话运行,是吗


那么,多少次会话“运行”是一个历元,这样我至少可以找到进入损耗op的张量?

在大多数tensorflow模型中,会话是一个
会话。run
调用处理一小批训练数据。每个历元有多少个小批次取决于您使用的特定模型和数据集