Asynchronous Tensorflow分布式异步训练示例,带有高级api实验和估计器

Asynchronous Tensorflow分布式异步训练示例,带有高级api实验和估计器,asynchronous,tensorflow,distributed,Asynchronous,Tensorflow,Distributed,是否有关于使用高级api实现的tensorflow分布式异步培训的示例 我可以找到使用和实现的官方同步示例: 我还可以找到一个官方的异步示例,其中包含tf.train.MonitoredTrainingSession: 但是,用实验和估计器实现异步训练还没有很好的例子 有谁能展示一个完整的示例或教我如何编写一个吗?cifar10\u估算器示例实际上是异步的,您需要添加“sync”标志以使其synchronous@YaroslavBulatov谢谢你的回复。我发现这两个异步示例之间有一点不同。ci

是否有关于使用高级api实现的tensorflow分布式异步培训的示例

我可以找到使用和实现的官方同步示例:

我还可以找到一个官方的异步示例,其中包含tf.train.MonitoredTrainingSession

但是,用实验和估计器实现异步训练还没有很好的例子


有谁能展示一个完整的示例或教我如何编写一个吗?

cifar10\u估算器示例实际上是异步的,您需要添加“sync”标志以使其synchronous@YaroslavBulatov谢谢你的回复。我发现这两个异步示例之间有一点不同。cifar10_estimator异步示例仅使用一个输入_fn,它生成具有4*批处理大小的序列样本,而使用4个输入_fn时,如果我们在4个GPU上进行并行化,则每个副本都会获得自己的输入_fn。因此,官方的异步示例总是比cifar10_estimator异步示例快,它在输入上没有同步或块。@YaroslavBulatov不确定我是否正确理解它。如果我的观点错了,请纠正我。