多工作者镜像策略中的Tensorflow工作者间分布式同步

多工作者镜像策略中的Tensorflow工作者间分布式同步,tensorflow,tensorflow2.0,Tensorflow,Tensorflow2.0,如何在TensorFlow中实现多工作镜像策略中工作进程之间的同步? 它是在主机上完成的(如何?我看到在代码堆栈的深处调用了“merge_call”方法,但是我看到它在开始时只调用了一次….),还是只在执行集合操作时(由集合执行器)才进行同步。我相信它在数据层上是不同步的

如何在TensorFlow中实现多工作镜像策略中工作进程之间的同步? 它是在主机上完成的(如何?我看到在代码堆栈的深处调用了“merge_call”方法,但是我看到它在开始时只调用了一次….),还是只在执行集合操作时(由集合执行器)才进行同步。我相信它在数据层上是不同步的