Tensorflow 为什么神经网络中数据集的总大小会影响内存使用

Tensorflow 为什么神经网络中数据集的总大小会影响内存使用,tensorflow,machine-learning,neural-network,out-of-memory,image-classification,Tensorflow,Machine Learning,Neural Network,Out Of Memory,Image Classification,最初,我尝试在图像分类模型中使用268张测试图像+65张大小为256x256的验证图像进行迁移学习 (我使用的代码来自) 然而,即使使用特斯拉K80(16GB内存),我仍然不能训练超过5个批量的内存 现在,我将数据集的大小增加到480个测试图像+120个验证图像,内存不足错误再次弹出。我必须将批量减少到2才能继续培训 为什么数据集大小在内存使用中很重要?不应该只有批大小决定GPU处理的数据量吗?第一个数据集的批大小是多少?@OmG它是5。第一个数据集的训练不能超过5次,否则会发生OOM错误。

最初,我尝试在图像分类模型中使用268张测试图像+65张大小为256x256的验证图像进行迁移学习

(我使用的代码来自)

然而,即使使用特斯拉K80(16GB内存),我仍然不能训练超过5个批量的内存

现在,我将数据集的大小增加到480个测试图像+120个验证图像,内存不足错误再次弹出。我必须将批量减少到2才能继续培训


为什么数据集大小在内存使用中很重要?不应该只有批大小决定GPU处理的数据量吗?

第一个数据集的批大小是多少?@OmG它是5。第一个数据集的训练不能超过5次,否则会发生OOM错误。