Tensorflow colabs中无内存溢出的图像和标签人脸属性检测

Tensorflow colabs中无内存溢出的图像和标签人脸属性检测,tensorflow,machine-learning,keras,google-colaboratory,face-recognition,Tensorflow,Machine Learning,Keras,Google Colaboratory,Face Recognition,我正在做一个深度学习项目,关于keras人脸属性检测。我的数据集是众所周知的。有关celeb图像和列表\u attr\u celeba.csv文件的数据集。我收集的数据如下: 例如: - image => "000002.jpg" - y_nose = [0, 0] - y_mouth = [0 ,1] - y_eyes = [1, 0, 0, 1, 0] - y_faces = [0, 1, 0] - y_around_head = [1, 0, 0, 1

我正在做一个深度学习项目,关于keras人脸属性检测。我的数据集是众所周知的。有关celeb图像和
列表\u attr\u celeba.csv
文件的数据集。我收集的数据如下:

例如:

 - image => "000002.jpg"
 - y_nose = [0, 0]
 - y_mouth = [0 ,1]
 - y_eyes = [1, 0, 0, 1, 0]
 - y_faces = [0, 1, 0]
 - y_around_head = [1, 0, 0, 1, 0, 1, 0, 1, 0, 0]
 - y_cheeks = [0, 0]
 - y_fat = [1, 1]
这是我的意见。我正在使用keras函数api。我的模型是多输出模型类型。模型架构是:

我使用colabs gpu(免费版)来训练模型。我开始训练模特

  • 20000张图像(每个图像尺寸为(2002003))
  • %80次培训、10次验证和10次测试
  • 30纪元
  • 训练批大小为512
  • 验证批大小为128
完成模型训练后,除了头部、鼻子和嘴巴的准确度外,我的成绩很好。我的问题是,我听说这样大的映像数据应该会导致colabs内存溢出。但当我在训练后检查内存使用情况时,因为gpu只有4.60GB。我的模型有问题吗?我不知道如何检查这种情况。我的意思是,当我第一次尝试训练模型时,我使用sklearn.model\u selection train\u test\u split来分割数据。当我使用它时,它会导致内存溢出,为了解决这个问题,我制作了自己的数据生成器。这似乎解决了问题,但即使我使用大批量(如512),我认为这应该是内存泄漏。但它不会发生内存溢出。这是我的第一个深度学习项目,我不确定model.fit是否正常工作。如果你在colabs中制作了这么大的图片,请分享你的知识