如何使用Keras进行多GPU培训?

如何使用Keras进行多GPU培训?,keras,multi-gpu,Keras,Multi Gpu,我希望我的模型在多个GPU上运行,这些GPU共享参数,但具有不同批次的数据 我可以用model.fit()做类似的事情吗?还有其他选择吗?尝试在以下情况下使用make_parallel函数: (它只适用于tensorflow后端)。Keras现在(从v2.0.9开始)内置了对设备并行性的支持,支持跨多个gpu,使用Keras.utils.multi\U gpu模型 目前,仅支持Tensorflow后端 这里有一个很好的例子(文档): 这里还包括:

我希望我的模型在多个GPU上运行,这些GPU共享参数,但具有不同批次的数据


我可以用
model.fit()做类似的事情吗?还有其他选择吗?

尝试在以下情况下使用make_parallel函数: (它只适用于tensorflow后端)。

Keras现在(从v2.0.9开始)内置了对设备并行性的支持,支持跨多个gpu,使用
Keras.utils.multi\U gpu模型

目前,仅支持Tensorflow后端

这里有一个很好的例子(文档): 这里还包括: