Machine learning 坠落时识别物体-视点变化

Machine learning 坠落时识别物体-视点变化,machine-learning,computer-vision,deep-learning,svm,object-recognition,Machine Learning,Computer Vision,Deep Learning,Svm,Object Recognition,我有一个问题陈述,考虑到相机看到物体的不同视角,我可以识别同一物体(瓶盖)的10类不同变化(颜色和大小的变化)。我已将其分为多个子任务 1) 训练了一个深度学习模型,只对物体的平面进行分类,并在这次尝试中取得了成功 示例2类的平面 2) 没有考虑到这一点,而是为可能的视角变化培训了一个模型——但没有成功 样本2班级的知觉变化 即使透视图发生变化,识别对象的方法是什么。我不必带着一个摄像头解决方案到达现场。开放的思想,在处理这个问题的不同看法 任何帮助都将不胜感激,提前谢谢 我想给你的答案是:

我有一个问题陈述,考虑到相机看到物体的不同视角,我可以识别同一物体(瓶盖)的10类不同变化(颜色和大小的变化)。我已将其分为多个子任务

1) 训练了一个深度学习模型,只对物体的平面进行分类,并在这次尝试中取得了成功

示例2类的平面

2) 没有考虑到这一点,而是为可能的视角变化培训了一个模型——但没有成功

样本2班级的知觉变化

即使透视图发生变化,识别对象的方法是什么。我不必带着一个摄像头解决方案到达现场。开放的思想,在处理这个问题的不同看法


任何帮助都将不胜感激,提前谢谢

我想给你的答案是:

你一定要看看这篇文章,在那里你会被介绍到CNN的一些缺点,以及他们是如何试图解决这些缺点的

也就是说,我发现很难相信当透视图发生变化时,您的体系结构不能成功地解决问题。您的数据集是否非常小?我希望神经网络能够学习对条纹边缘的过滤,这可以从各个角度看到

如果你不局限于一个摄像头,你可以尝试训练一个“普通”分类器,你可以在制作中输入多个图像,并对预测进行平均。或者,您可以构建一个同时接受多个透视图的体系结构。你必须自己尝试,什么最有效

此外,永远不要低估老派图像预处理的威力。如果你有3种不同的视角,你可以选择最接近“平面”视角的视角。这可能与使用具有最大彩色区域的图像一样简单,其中
img.sum()
最高

另一个想法是通过显式编程计算颜色,这应该相当容易,然后向网络提供灰度图像。也许你的人际网络被颜色的强烈相关性弄糊涂了,完全忽略了形状