分布式TensorFlow:关于tf.train.Supervisor.start\u queue\u跑步者的使用

分布式TensorFlow:关于tf.train.Supervisor.start\u queue\u跑步者的使用,tensorflow,distributed-computing,Tensorflow,Distributed Computing,我正在研究的代码中,我对tf.train.Supervisor.start\u queue\u runner in的使用有以下问题: 为什么我们需要在队列中显式调用sv.start\u queue\u运行程序 264和第269行在哪?事实上,我认为没有必要这样做 由于以下原因而拨打的电话: 请注意,在图形键队列运行程序中收集的队列运行程序 已在使用创建会话时自动启动 因此,除非您要启动未收集的队列运行程序 您不需要显式地调用它 我注意到排队者在呼叫中的价值 sv.start_queue_运行程序

我正在研究的代码中,我对tf.train.Supervisor.start\u queue\u runner in的使用有以下问题:

为什么我们需要在队列中显式调用sv.start\u queue\u运行程序 264和第269行在哪?事实上,我认为没有必要这样做 由于以下原因而拨打的电话:

请注意,在图形键队列运行程序中收集的队列运行程序 已在使用创建会话时自动启动 因此,除非您要启动未收集的队列运行程序 您不需要显式地调用它

我注意到排队者在呼叫中的价值 sv.start_queue_运行程序在第264行和第264行中不同 269英寸。但你不是吗 首席跑步者也在 tf.GraphKeys.QUEUE_runner所有队列_runner都在第263行中获得?如果 那么,就不需要第269行了,因为主队列的运行者已经 已在第264行开始

此外,您能给我解释一下或给我看一些关于tf.train.Supervisor中创建了哪些队列的参考资料吗


谢谢你的时间

不是答案,而是一些关于如何找到答案的一般说明:

首先,在github的指责下,inception_distributed于4月13日签入,而start_queue_runners中的评论是在4月15日添加的,因此功能可能已更改,但在所有使用它的地方都没有更新

你可以把这句话注释掉,看看事情是否仍然有效。如果没有,您可以添加导入pdb;pdb.set_trace在创建队列运行程序的位置,即查看谁在创建这些额外的无人值守队列运行程序


此外,主管的发展似乎已经放缓,事情正从评论转移到FooSession。这些工具提供了一个更强大的培训体系结构,您的员工不会因为临时网络错误而崩溃,但关于如何使用它们的示例还不多。

感谢您的回复,Yaroslav!我问了一些问题以获得一些快速答案,我将检查这些问题。此外,您关于迁移到FooSession的信息很有价值。