Iphone 如何从AVCaptureOutput face获取视频帧检测元数据对象
我能够从一个视频流中获得人脸检测,该视频流按照StacheCam的示例工作 但是,我无法获得相应的图像帧。我两者都有Iphone 如何从AVCaptureOutput face获取视频帧检测元数据对象,iphone,ios,ios6,avfoundation,Iphone,Ios,Ios6,Avfoundation,我能够从一个视频流中获得人脸检测,该视频流按照StacheCam的示例工作 但是,我无法获得相应的图像帧。我两者都有 captureOutput:didOutputSampleBuffer:fromConnection: 及 触发并向我提供数据,但这两种调用都是异步调用,我看不到一种方法可以准确地将facebox与帧同步 我也在尝试这样做,我在captureOutput中有人脸的标准化位置,接收元数据,但看不到从帧中获取实际像素数据的方法。有没有人有这方面的经验? captureOutput:
captureOutput:didOutputSampleBuffer:fromConnection:
及
触发并向我提供数据,但这两种调用都是异步调用,我看不到一种方法可以准确地将facebox与帧同步 我也在尝试这样做,我在captureOutput中有人脸的标准化位置,接收元数据,但看不到从帧中获取实际像素数据的方法。有没有人有这方面的经验?
captureOutput:didOutputMetadataObjects:fromConnection: