如何使用iPhone';谁的照相机?

如何使用iPhone';谁的照相机?,iphone,augmented-reality,motion,motion-detection,Iphone,Augmented Reality,Motion,Motion Detection,我看到有人制作了一个应用程序,可以用摄像头跟踪你的脚,这样你就可以在iPhone屏幕上踢虚拟足球了 你怎么能这样做?有人知道使用iPhone摄像头检测和跟踪物体的代码示例或其他信息吗?我在iPhone上使用OpenCV成功地跟踪了人脸和眼睛。 这里是一个很好的起点: 我想诀窍在于找到一个描述脚的级联(描述相机应该寻找什么),但不确定它是否存在。我刚刚在SecondConf上做了一个演讲,演示了如何使用iPhone的相机使用OpenGL ES 2.0着色器跟踪彩色对象。演讲附带的帖子,包括我的幻灯

我看到有人制作了一个应用程序,可以用摄像头跟踪你的脚,这样你就可以在iPhone屏幕上踢虚拟足球了


你怎么能这样做?有人知道使用iPhone摄像头检测和跟踪物体的代码示例或其他信息吗?

我在iPhone上使用OpenCV成功地跟踪了人脸和眼睛。 这里是一个很好的起点:


我想诀窍在于找到一个描述脚的级联(描述相机应该寻找什么),但不确定它是否存在。

我刚刚在SecondConf上做了一个演讲,演示了如何使用iPhone的相机使用OpenGL ES 2.0着色器跟踪彩色对象。演讲附带的帖子,包括我的幻灯片和所有演示的示例代码都可以找到

我编写的示例应用程序的代码可以从下载,它基于苹果公司为在WWDC 2007上演示核心图像而制作的一个示例。该示例如中所述

其基本思想是,您可以使用自定义GLSL着色器实时处理来自iPhone摄像头的图像,确定哪些像素与给定阈值内的目标颜色匹配。然后,这些像素将其标准化的X、Y坐标嵌入到它们的红色和绿色分量中,而所有其他像素都标记为黑色。然后对整个帧的颜色进行平均,以获得彩色对象的质心,当它在摄影机视图中移动时,可以跟踪该质心

虽然这并不能解决跟踪更复杂的对象(如脚)的问题,但应该能够编写这样的着色器来识别这样的移动对象


作为对上述内容的更新,在我写这篇文章的两年时间里,我现在开发了一种封装OpenGL ES 2.0图像和视频着色器处理的软件。最近增加的一个是GPUImageMotionDetector类,它处理场景并检测其中的任何类型的运动。它将返回作为简单回调块一部分检测到的整体运动的质心和强度。使用此框架进行此操作应该比滚动您自己的解决方案容易得多。

可以使用OpenCV进行实时跟踪吗?这篇链接文章似乎表明,在480 x 320的图像中识别人脸需要10秒钟的时间。我使用了iPhone 3GS上的CoreVideo框架,使用小样本AVCaptureSessionPresetLow实时跟踪人脸。我能够在4毫秒以下持续检测眼睛。这听起来很好,我想你不会想要样品吧?这很酷。。有没有可能用这个来构建一个像xbox kinetic这样的界面?:)我正在寻找一个快速轻量级的代码,以放入我的iphone应用程序中,如。。如果移动网络能够实现,那就太酷了though@CarlLindberg-Kinect使用投影的结构化红外光来执行环境的三维映射,因此您显然无法将其与iOS设备中的彩色摄像头相匹配。到目前为止,我所做的粗略运动检测并不是跟踪手或手指,为此,你需要探索光流或物体跟踪技术。让他们在现场视频上工作将是一个相当大的挑战。