Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/powershell/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ios 如何从嵌入iphone肖像图片的深度数据计算距离值?_Ios_Iphone_Computer Vision_Point Clouds_Depth - Fatal编程技术网

Ios 如何从嵌入iphone肖像图片的深度数据计算距离值?

Ios 如何从嵌入iphone肖像图片的深度数据计算距离值?,ios,iphone,computer-vision,point-clouds,depth,Ios,Iphone,Computer Vision,Point Clouds,Depth,我正在开发一个从深度数据重建点云的应用程序。 我尝试使用一些智能手机拍摄的肖像图像中嵌入的深度数据 到目前为止,我在谷歌相机应用程序照片方面取得了进展。它具有文档化的深度格式() 我还可以通过将ios肖像图片上传到exiftool或使用exiftool从中提取深度相关数据。以下是嵌入式数据的预览: 不幸的是,我无法确定编码到该嵌入图像的实际距离值 xmp元数据中似乎存在编码相关信息,例如 Stored Format = 'L008' // one component 8 bit Native

我正在开发一个从深度数据重建点云的应用程序。 我尝试使用一些智能手机拍摄的肖像图像中嵌入的深度数据

到目前为止,我在谷歌相机应用程序照片方面取得了进展。它具有文档化的深度格式()

我还可以通过将ios肖像图片上传到exiftool或使用exiftool从中提取深度相关数据。以下是嵌入式数据的预览:

不幸的是,我无法确定编码到该嵌入图像的实际距离值

xmp元数据中似乎存在编码相关信息,例如

Stored Format = 'L008' // one component 8 bit
Native Format = 'hdis' // half precision floating point disparity
Depth Data Version = 125537 // varies
Int min value = 0
Int max value = 255
Float Min Value // for example 1.23
Float Max Value // for example 2.12
我尝试插值图像数据值,并使用它作为视差,就像谷歌相机一样

distance_to_camera = constant * 1.0 / (Float_Max_Value * pixel / 255 + Float_Min_Value * (1 - pixel / 255))

但它会导致严重扭曲的点云。我认为这可能是不正确的深度数据解释。

如果您只在深度贴图中获取点云,则不需要实际的摄影机对象距离。您可以使用一些可视化库直接生成点云。我推荐


然后,如果需要距离信息,则需要获取相机参数。查看。

如果您只想获取深度贴图中的点云,则不需要实际的摄影机对象距离。您可以使用一些可视化库直接生成点云。我推荐


然后,如果需要距离信息,则需要获取相机参数。查看。

似乎嵌入的数据并不直接表示深度。我已经生成了密集云可视化,发现它非常扭曲。我试着直接使用嵌入的深度数据作为Z坐标,也作为逆Z坐标(视差,如图像元所示)。我试着在“浮点最小值”和“浮点最大值”之间插入深度值/差异。似乎嵌入的数据并不能直接表示深度。我已经生成了密集云可视化,发现它非常扭曲。我试着直接使用嵌入的深度数据作为Z坐标,也作为逆Z坐标(视差,如图像元所示)。我还尝试在“浮点最小值”和“浮点最大值”之间插入深度值/差异。