如何在分布式Tensorflow中为每个工作进程创建局部变量?

如何在分布式Tensorflow中为每个工作进程创建局部变量?,tensorflow,Tensorflow,现在,我尝试使用如下估计器创建一个局部变量: local\u step=tf.get\u变量(name='local\u step',初始值设定项=tf.constant(0),trainable=False) 并且希望在tf.estimator.ModeKeys.TRAIN模式下,每次由优化器更新后可以添加1。但是我发现所有的worker都将共享同一个local_step并更新其值(就像global_step变量一样)。是否可以在每个辅助对象上创建一个局部变量?例如,工作进程0上的本地_步骤_

现在,我尝试使用如下估计器创建一个局部变量:

local\u step=tf.get\u变量(name='local\u step',初始值设定项=tf.constant(0),trainable=False)

并且希望在tf.estimator.ModeKeys.TRAIN模式下,每次由优化器更新后可以添加1。但是我发现所有的worker都将共享同一个local_step并更新其值(就像global_step变量一样)。是否可以在每个辅助对象上创建一个局部变量?例如,工作进程0上的本地_步骤_0和工作进程1上的本地_步骤_1,则本地变量将用作其自身工作进程的步进计数器