Image processing 传感器数量和像素数量

Image processing 传感器数量和像素数量,image-processing,sensors,sampling,digitization,Image Processing,Sensors,Sampling,Digitization,关于将模拟图像转换为数字图像时的采样过程的一个问题。我了解百万像素之类的东西,以及百万像素神话如何很好地服务于数码相机行业。我已经了解到,更大的传感器更好(这就是为什么一个点对点14MP相机在质量上可能不如12MP单反相机——如果存在这样一个MP计数的相机的话) 我一直在读CCD和CMOS是如何将图像数字化的(比如在数码相机中)。整体概念相当清楚。唯一让我感到困惑的是,虽然可能是件简单的事情,但是。。。传感器数量(传感器阵列上)是否转化为最终图像中的像素数量。是这样吗?也就是说,假设传感器阵列为

关于将模拟图像转换为数字图像时的采样过程的一个问题。我了解百万像素之类的东西,以及百万像素神话如何很好地服务于数码相机行业。我已经了解到,更大的传感器更好(这就是为什么一个点对点14MP相机在质量上可能不如12MP单反相机——如果存在这样一个MP计数的相机的话)

我一直在读CCD和CMOS是如何将图像数字化的(比如在数码相机中)。整体概念相当清楚。唯一让我感到困惑的是,虽然可能是件简单的事情,但是。。。传感器数量(传感器阵列上)是否转化为最终图像中的像素数量。是这样吗?也就是说,假设传感器阵列为10 X 10(是的,非常小,但仅作为示例)。但这是否意味着也要采集10 X 10的样本?哪一个最终转化为具有10px X 10px“空间分辨率”的数字图像?(我使用了“”,因为我读到有很多定义,即使是空间分辨率)

在读了《冈萨雷斯与伍兹》中的这一部分后,我想问这个问题(请参考图片)


如果您有任何反馈,我们将不胜感激:D谢谢

图像中的最终大小为:

D = (X/Z) * f / p
在哪里

D:图像中的对象大小(以像素为单位)

X:对象的大小(mm)

Z:到对象的距离(mm)

f:透镜的焦距(mm)


p:传感器的像素大小(mm/像素)-您可以在传感器的规格表中找到它。

图像中的最终大小为:

D = (X/Z) * f / p
在哪里

D:图像中的对象大小(以像素为单位)

X:对象的大小(mm)

Z:到对象的距离(mm)

f:透镜的焦距(mm)


p:传感器的像素大小(mm/像素)-您可以在传感器的规格表中找到这一点。

是的,在您提供的简单而人为的示例中,您是正确的-传感器中的像素数等于最终图像中的像素数

现实世界通常要复杂一些。例如,如果您想要颜色,则每个像素都需要对每个原色(红色、绿色和蓝色)进行一次读取。但大多数传感器每像素只产生一个读数。每次读取的颜色由位于每个像素上的颜色确定,缺少的值必须通过插值填充,这一过程称为

一个实用的传感器还将包含少量像素,这些像素不会进入最终图像。一些用于测量黑色级别(它们被遮罩,因此没有光线照射),一些在图像边缘提供额外信息,以便去马赛克过程可以正常工作。如果相机的输出是JPEG图像,则尺寸通常为16的倍数,以匹配JPEG压缩使用的块大小


对传感器进行下采样以提供较低分辨率的最终图像也是很常见的。相机通常会为此提供一个选项,而由静止图像相机生成的视频将自动完成此操作。

是的,在您提供的简单而人为的示例中,您是正确的-传感器中的像素数与最终图像中的像素数相等

现实世界通常要复杂一些。例如,如果您想要颜色,则每个像素都需要对每个原色(红色、绿色和蓝色)进行一次读取。但大多数传感器每像素只产生一个读数。每次读取的颜色由位于每个像素上的颜色确定,缺少的值必须通过插值填充,这一过程称为

一个实用的传感器还将包含少量像素,这些像素不会进入最终图像。一些用于测量黑色级别(它们被遮罩,因此没有光线照射),一些在图像边缘提供额外信息,以便去马赛克过程可以正常工作。如果相机的输出是JPEG图像,则尺寸通常为16的倍数,以匹配JPEG压缩使用的块大小

对传感器进行下采样以提供较低分辨率的最终图像也是很常见的。相机通常会提供一个选项,由静止图像相机生成的视频会自动完成