从双摄像头Android智能手机获取深度

从双摄像头Android智能手机获取深度,android,camera,Android,Camera,市场上有很多双摄像头安卓手机,可以拍摄波基效果的图像。有没有可能创建一个Android应用程序来使用双摄像头并获取图像中每个像素的深度?或者同时访问两个摄像头以生成立体图像?现代双摄像头设备不允许用户控制使用镜头的方式。我在回答问题时也解释了情况。这些设备有不同的摄像头,例如彩色和单声道(在华为P9的情况下),因此即使你以某种方式控制了两个传感器,重建立体图像也很困难 另一方面,HTC Evo 3D手机提供的功能正是让您能够做到这一点:处理立体图像。Android p将支持多摄像头模式,以便开发

市场上有很多双摄像头安卓手机,可以拍摄波基效果的图像。有没有可能创建一个Android应用程序来使用双摄像头并获取图像中每个像素的深度?或者同时访问两个摄像头以生成立体图像?

现代双摄像头设备不允许用户控制使用镜头的方式。我在回答问题时也解释了情况。这些设备有不同的摄像头,例如彩色和单声道(在华为P9的情况下),因此即使你以某种方式控制了两个传感器,重建立体图像也很困难


另一方面,HTC Evo 3D手机提供的功能正是让您能够做到这一点:处理立体图像。

Android p将支持多摄像头模式,以便开发者/用户可以访问两个物理摄像头。从单色计算深度不是问题,因为大多数算法在将立体图像转换为gtay比例后使用立体图像。在当前版本中,困难在于只能访问两个物理摄像机。我太期待Android的发布了

这是用OpenCV python编写的,使用灰度图像作为输入。

在某些小米手机中,我在Poco F1中进行了测试,可以使用第二个深度感应摄像头

通过多次点击内核版本,我们可以进行电话测试。在那里,我们可以访问第二个后摄像头。在我的模型中,变焦级别似乎在2倍左右,令人惊讶的是,它是一个颜色传感器。虽然没有自动对焦,但是深度设置为无穷大,所以照片不是很差


不幸的是,保存图片的唯一方法似乎是截图。

现在android api level 28是为android p发布的,SDK是否允许我们像HTC SDK一样直接检索深度图图像?我还没有看到具有这些功能的实时设备。谷歌推出新的API是一个大胆的举动,但我不认为它会很快被采用。我怀疑现有设备是否会暴露这一点,即使它们选择从Oreo升级到Pie。在我的POCO F1上,我可以在Android P更新后单独使用摄像头,但它们最初是如何进行图像处理的?难道他们不需要绘制某种深度图吗?是否无法获得由相机检测到的二维阵列或深度点云?(顺便说一句,我不需要相机的图像,只需要深度图)看,到目前为止,我仍然无法在我的带有android P设备的诺基亚7 plus上使用multicamera。不知道他们只是不支持,或者这是安卓rom中的一个bug