为什么多GPU tensorflow再培训不起作用

为什么多GPU tensorflow再培训不起作用,tensorflow,Tensorflow,我一直在使用一个GTX Titan来训练tensorflow再训练算法,它工作得很好,但是当我在“再训练之花”示例中尝试使用多个GPU时,它不起作用,而且在Nvidia SMI中运行时,似乎只使用一个GPU 为什么会发生这种情况,因为在从头开始模型重新培训时,它确实可以使用多个GPU,但在重新培训期间却不能使用?TensorFlow的flower重新培训示例根本不能使用多个GPU,即使您将--num_GPU>1设置为。正如您所指出的,它应该支持单个GPU 该模型需要修改以并行使用多个GPU。不幸

我一直在使用一个GTX Titan来训练tensorflow再训练算法,它工作得很好,但是当我在“再训练之花”示例中尝试使用多个GPU时,它不起作用,而且在Nvidia SMI中运行时,似乎只使用一个GPU


为什么会发生这种情况,因为在从头开始模型重新培训时,它确实可以使用多个GPU,但在重新培训期间却不能使用?

TensorFlow的flower重新培训示例根本不能使用多个GPU,即使您将
--num_GPU
>1设置为。正如您所指出的,它应该支持单个GPU


该模型需要修改以并行使用多个GPU。不幸的是,像flower retraining示例这样的单个TensorFlow操作此时无法自动拆分到多个GPU上。

您能否提供如何使其成为GPU mp的示例?不幸的是,这远远超出了SO注释/回答的范围,但是,如果您转到TensorFlow multi-GPU基础教程并检查其源代码,则有一些很好的起点。