Keras 当FP32和FP16指向不同的GPU时,是否可以为混合精度NN设置GPU亲和力?

Keras 当FP32和FP16指向不同的GPU时,是否可以为混合精度NN设置GPU亲和力?,keras,tensorflow,nvidia,Keras,Tensorflow,Nvidia,我有GTX 1080和RTX 2080。我想使用这两种方法进行训练,但由于RTX可以处理FP16的速度提高一倍,因此我希望将其设置为多GPU训练,RTX处理FP16层,GTX处理FP32层 这在tensorflow、pytorch或keras下是否可行?tensorflow 在TF中,可以为每个层指定要在哪个设备上执行(GPU、CPU或特定GPU,如果您有多个GPU…)。这是使用和tf.device('device\u name')语句完成的(您需要提供有意义的device\u name)。见第

我有GTX 1080和RTX 2080。我想使用这两种方法进行训练,但由于RTX可以处理FP16的速度提高一倍,因此我希望将其设置为多GPU训练,RTX处理FP16层,GTX处理FP32层

这在tensorflow、pytorch或keras下是否可行?

tensorflow 在TF中,可以为每个层指定要在哪个设备上执行(GPU、CPU或特定GPU,如果您有多个GPU…)。这是使用
和tf.device('device\u name')
语句完成的(您需要提供有意义的
device\u name
)。见第节

凯拉斯 因为这在TF中是可能的,这意味着您也可以在Keras中使用它,如果您使用TF作为Keras后端(Keras只是一个高级神经网络API)

请注意,在Keras中,Keras中有一个
multi\u gpu\u model()
函数,但该函数仅在多个gpu上复制整个模型,您无法指定要在特定gpu上放置哪一层