iOS摄像头编程-如何在didOutputSampleBuffer回调中获得最高分辨率的图像

iOS摄像头编程-如何在didOutputSampleBuffer回调中获得最高分辨率的图像,ios,camera,Ios,Camera,我有一个摄像头应用程序,我想在didOutputSampleBuffer回调中获得最高分辨率的图像。现在,我在回调中收到的所有帧都是852x640(我正在使用iPhone4进行测试)。只有当我请求静态图像捕获(通过captureStillImageAsynchronouslyFromConnection)时,我才能获得一帧(并且只有一帧)与以设备最高分辨率(2592x1936)捕获的实际图像相对应 是否可以设置一些设置,以便在didOutputSampleBuffer中不断接收分辨率为-2592

我有一个摄像头应用程序,我想在didOutputSampleBuffer回调中获得最高分辨率的图像。现在,我在回调中收到的所有帧都是852x640(我正在使用iPhone4进行测试)。只有当我请求静态图像捕获(通过captureStillImageAsynchronouslyFromConnection)时,我才能获得一帧(并且只有一帧)与以设备最高分辨率(2592x1936)捕获的实际图像相对应


是否可以设置一些设置,以便在didOutputSampleBuffer中不断接收分辨率为-2592x1936的帧?然后,我想将其中一些帧保存为回调中的图像,而不必通过captureStillImageAsynchronouslyFromConnection来捕获图像。

视频输出无法支持捕获静态图像时看到的完整分辨率。查看中给出的表格,以获取支持的解决方案列表

如果要更改分辨率,请在相机会话上设置适当的设置,如下所示:

cameraSession.sessionPreset = AVCaptureSessionPresetHigh;

请注意,
AVCaptureSessionPresetPhoto
无法用于视频捕获。

谢谢,我想这就是答案:)