Tensorflow未将tensor/op分配给所有可用GPU
我有两个GPU,一个6GB GTX Titan和一个11GB GTX 1080Ti 期望:Tensorflow应该自动使用所有GPU的内存 现实:Tensorflow将两个设备映射为gpu:0和gpu:1,但它只使用gpu:0,从不使用gpu:1,当我增加内存需求时,它会在不使用gpu:1内存的情况下遇到OutOfMemory异常Tensorflow未将tensor/op分配给所有可用GPU,tensorflow,multiple-gpu,Tensorflow,Multiple Gpu,我有两个GPU,一个6GB GTX Titan和一个11GB GTX 1080Ti 期望:Tensorflow应该自动使用所有GPU的内存 现实:Tensorflow将两个设备映射为gpu:0和gpu:1,但它只使用gpu:0,从不使用gpu:1,当我增加内存需求时,它会在不使用gpu:1内存的情况下遇到OutOfMemory异常 我想做的是使用两个设备的11+6=17 GB内存。我认为tensorflow可能只支持相同的GPU类型,如果它们是不同的类型,它将只使用其中一种?我认为使用两种不同类
我想做的是使用两个设备的11+6=17 GB内存。我认为tensorflow可能只支持相同的GPU类型,如果它们是不同的类型,它将只使用其中一种?我认为使用两种不同类型的GPU来加速是一种不好的做法,因为tensorflow不会在不同的设备上放置操作。我应该在CPU上同步参数,并在多个GPU上为异步培训分发不同的数据。您是否遵循了以下步骤: