Python 如何检测图像上像素的相对深度?

Python 如何检测图像上像素的相对深度?,python,opencv,image-processing,Python,Opencv,Image Processing,我试图获得图像像素的相对深度。例如,中的图像。我不需要每个像素的精确距离,我相信这是不可能的,但我想得到的是“绿色的球比其他球更远”。可以在python中使用OpenCV吗?我生成的代码可以识别每个球,但不能识别它们的相对距离或深度,因此它们对我来说几乎毫无用处。这是一个不适定的问题(你不能用单个RGB相机测量深度),也是最近研究的主题。我找到了这个。通常,深度图像是使用卷积神经网络从RGB图像中学习的 但是,如果您使用了大量有关场景的先验信息(图像中的所有对象都是圆形的,部分可见的圆与背景中的

我试图获得图像像素的相对深度。例如,中的图像。我不需要每个像素的精确距离,我相信这是不可能的,但我想得到的是“绿色的球比其他球更远”。可以在python中使用OpenCV吗?我生成的代码可以识别每个球,但不能识别它们的相对距离或深度,因此它们对我来说几乎毫无用处。

这是一个不适定的问题(你不能用单个RGB相机测量深度),也是最近研究的主题。我找到了这个。通常,深度图像是使用卷积神经网络从RGB图像中学习的

但是,如果您使用了大量有关场景的先验信息(图像中的所有对象都是圆形的,部分可见的圆与背景中的圆相对应),那么您可能可以使用启发式方法(如阈值、边缘检测或hough变换)来做些事情,但这并不容易