Deep learning 如何确定测试批量以充分利用NVIDIA Titan X
在训练深度学习模型时,我发现如果我将训练和验证(测试)批量大小设置为相同,例如32、64、…、512,GPU就没有得到充分利用 然后我检查NVIDIA Titan X规格:Deep learning 如何确定测试批量以充分利用NVIDIA Titan X,deep-learning,nvidia,nvidia-titan,Deep Learning,Nvidia,Nvidia Titan,在训练深度学习模型时,我发现如果我将训练和验证(测试)批量大小设置为相同,例如32、64、…、512,GPU就没有得到充分利用 然后我检查NVIDIA Titan X规格: NVIDIA CUDA®核心:3584 内存:12 GB GDDR5X 为了减少CNN模型的测试时间,我希望尽可能多地增加一批样本的数量。我试过: 将每批样品数设置为3584,cuda超出内存错误 将每批样本数设置为2048,cuda超出内存错误 将每个批次的样本数设置为1024,有效。但我不确定GPU是否得到充分利用
- 将每批样品数设置为3584,cuda超出内存错误李>
- 将每批样本数设置为2048,cuda超出内存错误
- 将每个批次的样本数设置为1024,有效。但我不确定GPU是否得到充分利用
如何轻松选择每批样本的数量以充分利用GPU进行深度模型正向操作?使用
查看nvidia smi
检查进程使用的GPU内存量
供参考:
- :
我也在使用theano,您的解决方案是什么?如何配置theano,使其在GPU内存分配失败时不会直接崩溃@user2262504还没有解决方案。