Python TensorFlow:`mnist_replica.py`具有两个GPU,运行时间比单个GPU长

Python TensorFlow:`mnist_replica.py`具有两个GPU,运行时间比单个GPU长,python,tensorflow,deep-learning,gpu,distributed-computing,Python,Tensorflow,Deep Learning,Gpu,Distributed Computing,为什么我在两台机器上并行运行TensorFlowmnist_replica.py比在一台机器/GPU上训练花费的时间更长。两者使用相同的网络结构,参数相同。当train_steps=1000时,并行性训练需要10分钟以上,而单个GPU只需要4秒。 谢谢大家! 如果您提供了代码示例以及如何在两个网络之间设置代码,这将非常有用。通常使用多个GPU比使用单个GPU花费更多的时间。通过设置并行增长可以获得一些性能提升。@Bill Armstrong非常感谢您的代码,我只在我的单个GPU模型中使用了它的网

为什么我在两台机器上并行运行TensorFlow
mnist_replica.py
比在一台机器/GPU上训练花费的时间更长。两者使用相同的网络结构,参数相同。当
train_steps=1000
时,并行性训练需要10分钟以上,而单个GPU只需要4秒。
谢谢大家!

如果您提供了代码示例以及如何在两个网络之间设置代码,这将非常有用。通常使用多个GPU比使用单个GPU花费更多的时间。通过设置并行增长可以获得一些性能提升。@Bill Armstrong非常感谢您的代码,我只在我的单个GPU模型中使用了它的网络结构和参数。验证数据集的结果几乎相同。@Jaganadh Gopinadhan谢谢,我不明白你说的“通过设置并行增长”。@HgLeL:code片段
config=tf.ConfigProto()config.gpu_options.allow_growth=True session=tf.session(config=config,…)
reference