Python 如何在分布式Tensorflow Inception V3中的每个副本上使用多个GPU?

Python 如何在分布式Tensorflow Inception V3中的每个副本上使用多个GPU?,python,tensorflow,distributed,Python,Tensorflow,Distributed,此处显示了如何设置具有使用一个GPU的单个塔的每个复制副本 我目前在一台辅助机器上使用所有GPU的方式是启动与GPU数量相等的辅助数量。然后,工人们可以像不在一台机器上一样相互交流。这比我启动一个控制多个GPU的woker要慢 我想知道是否有一种方法可以稍微修改一下这段代码,以便在一台机器上使用多个GPU,就像那个例子一样。使用更高级的库会有所帮助。Slim必须在多个本地GPU上部署一个模型。是否有任何用于分布式环境的代码示例?感谢来自同一个存储库,请参阅此代码,它显示了如何设置每个复制副本,每

此处显示了如何设置具有使用一个GPU的单个塔的每个复制副本

我目前在一台辅助机器上使用所有GPU的方式是启动与GPU数量相等的辅助数量。然后,工人们可以像不在一台机器上一样相互交流。这比我启动一个控制多个GPU的woker要慢


我想知道是否有一种方法可以稍微修改一下这段代码,以便在一台机器上使用多个GPU,就像那个例子一样。

使用更高级的库会有所帮助。Slim必须在多个本地GPU上部署一个模型。

是否有任何用于分布式环境的代码示例?感谢来自同一个存储库,请参阅此代码,它显示了如何设置每个复制副本,每个复制副本都有一个仅使用一个GPU的塔。但是我想在每个worker上使用多个GPU。