tensorflow工作人员驾驶员培训如何处理并导致ps工作变量更新?

tensorflow工作人员驾驶员培训如何处理并导致ps工作变量更新?,tensorflow,Tensorflow,我正在阅读tensorflow代码,并找到了这个答案 非常想知道详细信息吗?这里有一些关于如何在站点上设置和使用分布式模型的详细信息 除了ps节点没有超出server.join()之外的代码之外,worker和“参数服务器”之间似乎没有什么区别,这允许其他节点在其上放置ops。在上述文档中的示例中,workers上运行的代码在ps设备上建立变量,使用它们计算模型,并将其作为本地资源进行优化-使用与机制基本相同的,就像将op分配给gpu或cpu一样 您有兴趣了解更具体的信息吗?谢谢您的回答!我试图

我正在阅读tensorflow代码,并找到了这个答案


非常想知道详细信息吗?

这里有一些关于如何在站点上设置和使用分布式模型的详细信息

除了
ps
节点没有超出
server.join()
之外的代码之外,worker和“参数服务器”之间似乎没有什么区别,这允许其他节点在其上放置ops。在上述文档中的示例中,workers上运行的代码在
ps
设备上建立变量,使用它们计算模型,并将其作为本地资源进行优化-使用与
机制基本相同的
,就像将op分配给gpu或cpu一样


您有兴趣了解更具体的信息吗?

谢谢您的回答!我试图理解tensorflow的实现,就像你说的“好像它们是本地资源”,实际上它们不是,所以tensorflow如何知道它们是本地或远程资源,我知道这是因为我们在代码中设置了“集群规范”,但是,在C++/python实现中,何时何地实际使用该规范来区分变量存储在本地还是远程@袁定平, 这不仅仅是“集群规范”,但是如果您在上面的链接中查看“在您的模型中指定分布式设备”,您可以看到ops是使用tf.device(“/job:ps/task:0”):weights_1=tf.Variable(…)
定义的;这告诉本地设备将其分配给参数服务器0,它通过ClusterSpec op知道该参数,在本例中,其参数最终来自Python的命令行调用。至于更详细的细节,您可能需要深入了解源代码。干杯,期待听到你所学到的!