Tensorflow 为什么nvidia smi GPU性能较低(尽管未使用)

Tensorflow 为什么nvidia smi GPU性能较低(尽管未使用),tensorflow,gpu,generative-adversarial-network,dcgan,Tensorflow,Gpu,Generative Adversarial Network,Dcgan,我是基于GPU的培训和深度学习模型的新手。我在我的2个Nvidia GTX 1080 GPU上运行tensorflow中的cDCGAN(Conditonal DCGAN)。我的数据集由大约320000张大小为64*64和2350个类别标签的图像组成。我的批处理大小非常小,即10,因为我面临OOM错误(分配形状为[32,64,642351]的张量时OOM)和较大的批处理大小 培训非常缓慢,我知道这取决于批量大小(如果我错了,请纠正我)。如果我执行帮助-n1 nvidia smi,我将得到以下输出

我是基于GPU的培训和深度学习模型的新手。我在我的2个Nvidia GTX 1080 GPU上运行tensorflow中的cDCGAN(Conditonal DCGAN)。我的数据集由大约320000张大小为64*64和2350个类别标签的图像组成。我的批处理大小非常小,即10,因为我面临OOM错误(分配形状为[32,64,642351]的张量时OOM)和较大的批处理大小

培训非常缓慢,我知道这取决于批量大小(如果我错了,请纠正我)。如果我执行
帮助-n1 nvidia smi
,我将得到以下输出

主要使用的是
GPU:0
,因为易失性的GPU-Util为我提供了大约0%-65%的支持,而
GPU:1
的最大支持率始终为0%-3%。
GPU:0
的性能始终在P2中,而
GPU:1
主要是P8或有时是P2。我有以下问题

1) 为什么GPU:1的使用量没有超过当前状态,为什么它的性能主要是P8,尽管没有使用
2) 这个糟糕的培训过程只会降低到我的批量大小,还是有其他原因
3) 如何提高性能? 4) 如何避免批量较大时出现OOM错误

编辑1:

模型详情如下

生成器:

我有4个层(完全连接、上采样2D-conv2d、上采样2D-conv2d、conv2d)
W1的形状为[X+Y,16*16*128],即分别为(245032768),w2[3,3,128,64],w3[3,3,64,32],w4[[3,3,32,1]]

鉴别器

它有五层(conv2d、conv2d、conv2d、conv2d、完全连接)

w1[5,5,X+Y,64],即(5,5,2351,64),w2[3,3,64,64],w3[3,3,64,128],w4[2,2,128,256],[16*16*256,1]。

是的,批量太小,为什么会出现OOM错误?模型有多大?@MatiasValdenegro有关模型的详细信息,请参阅我的编辑1。