Deep learning 为什么卷积深度学习模型会为不同的场景生成不同的FPS?

Deep learning 为什么卷积深度学习模型会为不同的场景生成不同的FPS?,deep-learning,artificial-intelligence,conv-neural-network,nvidia,frame-rate,Deep Learning,Artificial Intelligence,Conv Neural Network,Nvidia,Frame Rate,我有一个模型,输入图像(448x448)并输出转向角。根据我的观察,系统的FPS(每秒帧数)随图像场景而变化。例如,如果图像输入是雨景,系统以20 FPS的速度输出预测。然而,若图像输入是阳光明媚的场景,系统将以30FPS的速度输出预测。图像的复杂性也影响着FPS 为什么预测的FPS​​根据场景条件进行更改,即使CNN中的每张图片都进行了相同的计算?造成这种差异的原因是什么 我期望CNN模型对每个图像输入都有相同的FPS。但是它不稳定。你使用哪种网络之王?使用区域建议方法时,可能会出现这种情况:

我有一个模型,输入图像(448x448)并输出转向角。根据我的观察,系统的FPS(每秒帧数)随图像场景而变化。例如,如果图像输入是雨景,系统以20 FPS的速度输出预测。然而,若图像输入是阳光明媚的场景,系统将以30FPS的速度输出预测。图像的复杂性也影响着FPS

为什么预测的FPS​​根据场景条件进行更改,即使CNN中的每张图片都进行了相同的计算?造成这种差异的原因是什么


我期望CNN模型对每个图像输入都有相同的FPS。但是它不稳定。

你使用哪种网络之王?使用区域建议方法时,可能会出现这种情况:如果有许多区域建议,则必须对它们进行分析,因此会损失大量宝贵的fps;)图显示了我的模型架构。据我所知,这不是一个地区提案网络。我的网络包含卷积和密集层。你知道吗?致以最良好的祝愿。@JosephBudin我刚刚意识到我在使用深度学习模型进行推理时使用了FP16精度模式。是否可能通过预测模式影响模型的FPS?当我看到评论时,我开始认为非确定性的来源是浮点运算:“如果您的代码使用浮点原子,则每次运行的结果可能不同,因为浮点运算通常不关联,并且数据进入计算的顺序(例如,求和)当使用原子时,它是不确定的。”我会惊讶地发现,浮点运算根据图像的内容而有所不同。雨天/晴天是否使用不同的数据集?@JosephBudin我在培训和测试中使用的数据集包含来自不同场景的图像(没有不同的数据集)。类似于“雨天/晴天场景FPS的差异”问题;当给模型提供相同的输入时,它会产生相同的预测和不同的FPS值。你使用哪种网络?使用区域建议方法时,可能会出现这种情况:如果有许多区域建议,则必须对它们进行分析,因此会损失大量宝贵的fps;)图显示了我的模型架构。据我所知,这不是一个地区提案网络。我的网络包含卷积和密集层。你知道吗?致以最良好的祝愿。@JosephBudin我刚刚意识到我在使用深度学习模型进行推理时使用了FP16精度模式。是否可能通过预测模式影响模型的FPS?当我看到评论时,我开始认为非确定性的来源是浮点运算:“如果您的代码使用浮点原子,则每次运行的结果可能不同,因为浮点运算通常不关联,并且数据进入计算的顺序(例如,求和)当使用原子时,它是不确定的。”我会惊讶地发现,浮点运算根据图像的内容而有所不同。雨天/晴天是否使用不同的数据集?@JosephBudin我在培训和测试中使用的数据集包含来自不同场景的图像(没有不同的数据集)。类似于“雨天/晴天场景FPS的差异”问题;当给模型提供相同的输入时,它会产生相同的预测和不同的FPS值。