Tensorflow 目标检测模型停留在低地图上

Tensorflow 目标检测模型停留在低地图上,tensorflow,machine-learning,deep-learning,computer-vision,object-detection,Tensorflow,Machine Learning,Deep Learning,Computer Vision,Object Detection,我试图重现MobileNetV2论文(arXiv:1801.04381)中报告的SSDLite模型的结果,该模型在COCO检测挑战中应达到约22.1%的mAP。然而,我被困在9%的地图。这是一种奇怪的行为,因为该模型确实在某种程度上起作用,但与报告的结果仍相差甚远。这么大的差距是由超参数/优化器选择造成的(我使用的是adam而不是sgd),还是几乎可以肯定我的实现中存在缺陷 还值得一提的是,该模型成功地拟合了训练集的一小部分,但在整个训练集上,损失似乎很快达到平稳 有没有人遇到过类似的问题 这样

我试图重现MobileNetV2论文(arXiv:1801.04381)中报告的SSDLite模型的结果,该模型在COCO检测挑战中应达到约22.1%的mAP。然而,我被困在9%的地图。这是一种奇怪的行为,因为该模型确实在某种程度上起作用,但与报告的结果仍相差甚远。这么大的差距是由超参数/优化器选择造成的(我使用的是adam而不是sgd),还是几乎可以肯定我的实现中存在缺陷

还值得一提的是,该模型成功地拟合了训练集的一小部分,但在整个训练集上,损失似乎很快达到平稳

有没有人遇到过类似的问题

这样大的差距是由超参数/优化器选择造成的吗 (我使用的是adam而不是sgd),或者几乎可以肯定 我的实现中是否存在缺陷

即使超参数的微小变化和不同的优化器选择也会对分类器的训练和最终精度产生很大影响。因此,您的低精度可能不一定是由于错误,但也可能是由于错误的参数化

值得一提的是,该模型成功地超越了 训练集的小子集,但在整个训练集上 损失似乎很快就达到了停滞期

看起来您遇到了一个局部最优,它只适用于数据的子集,也可能是次最优参数化的指针


正如@Matias Valdenegro也提到的,要再现准确的结果,您可能必须使用与原始实现中相同的参数。

要再现结果,您必须使用相同的超参数,包括优化器和任何学习速率计划。