Deep learning 更快的RCNN(caffe)联合学习:内存不足,专用内存为5376 MB(更改的批量大小和RPN提案数量),还有什么?

Deep learning 更快的RCNN(caffe)联合学习:内存不足,专用内存为5376 MB(更改的批量大小和RPN提案数量),还有什么?,deep-learning,caffe,Deep Learning,Caffe,我以前使用过交替优化matlab代码,目前我正在尝试运行联合学习。我能够用我的GPU特斯拉2070运行测试演示。对于培训,我已将所有批次大小设置为1: __C.TRAIN.IMS_PER_BATCH = 1 __C.TRAIN.BATCH_SIZE = 1 __C.TRAIN.RPN_BATCHSIZE = 1 (自yaml被重写后,也将其更新为1) 但是我仍然有错误==cudaSuccess(2对0)内存不足 我曾尝试减少提案的数量。(原件如下:) 列车: 在将NMS应用于RPN提案之前要保

我以前使用过交替优化matlab代码,目前我正在尝试运行联合学习。我能够用我的GPU特斯拉2070运行测试演示。对于培训,我已将所有批次大小设置为1:

__C.TRAIN.IMS_PER_BATCH = 1
__C.TRAIN.BATCH_SIZE = 1
__C.TRAIN.RPN_BATCHSIZE = 1
(自yaml被重写后,也将其更新为1)

但是我仍然有错误==cudaSuccess(2对0)内存不足

我曾尝试减少提案的数量。(原件如下:)

列车: 在将NMS应用于RPN提案之前要保留的顶级评分框的数量

C.TRAIN.RPN_PRE_NMS_TOP_N = 12000
C.TRAIN.RPN_POST_NMS_TOP_N = 2000
C.TEST.RPN_PRE_NMS_TOP_N = 6000
C.TEST.RPN_POST_NMS_TOP_N = 300
将NMS应用于RPN提案后保留的顶级评分框数量

C.TRAIN.RPN_PRE_NMS_TOP_N = 12000
C.TRAIN.RPN_POST_NMS_TOP_N = 2000
C.TEST.RPN_PRE_NMS_TOP_N = 6000
C.TEST.RPN_POST_NMS_TOP_N = 300
测试: 在将NMS应用于RPN提案之前要保留的顶级评分框的数量

C.TRAIN.RPN_PRE_NMS_TOP_N = 12000
C.TRAIN.RPN_POST_NMS_TOP_N = 2000
C.TEST.RPN_PRE_NMS_TOP_N = 6000
C.TEST.RPN_POST_NMS_TOP_N = 300
将NMS应用于RPN提案后保留的顶级评分框数量

C.TRAIN.RPN_PRE_NMS_TOP_N = 12000
C.TRAIN.RPN_POST_NMS_TOP_N = 2000
C.TEST.RPN_PRE_NMS_TOP_N = 6000
C.TEST.RPN_POST_NMS_TOP_N = 300
我试着在100点之前和50点之后进行精神检查

如果没有内存不足的问题,我仍然无法运行。我在这里错过了什么??我有一个特斯拉5376 MB的专用内存,我使用特斯拉只为这个(有一个单独的GPU为我的屏幕)我是积极的阅读5376 MB应该是足够的作者自己


谢谢。

我说的是使用caffe的更快的rcnn,应该在标题中说明