在iOS中使用FFMPEG流媒体时,如何获得相机预览?

在iOS中使用FFMPEG流媒体时,如何获得相机预览?,ios,ffmpeg,livestreamer,Ios,Ffmpeg,Livestreamer,我正在iOS项目中使用下面的命令,我想在UIView中显示相机预览 -f avfoundation -r 30 -video_size 640x480 -pixel_format bgr0 -i \"default:default\" -preset ultrafast -c:v h264_videotoolbox -c:a mp2 -tune zerolatency -b 900k -f tee -map 0:v -map 0:a \"%@|[f=mpegts]udp://127.0.0.1:

我正在iOS项目中使用下面的命令,我想在UIView中显示相机预览

-f avfoundation -r 30 -video_size 640x480 -pixel_format bgr0 -i \"default:default\" -preset ultrafast -c:v h264_videotoolbox -c:a mp2 -tune zerolatency -b 900k -f tee -map 0:v -map 0:a \"%@|[f=mpegts]udp://127.0.0.1:43000/

UIView支持哪些容器格式?如果我自己使用AVCaptureSession,我将使用AVCaptureVideoPreviewLayer。。正确的。。但在我的例子中,现在,我可能需要向UIView提供AVCaptureSampleBuffer数据,以便它可以显示相机预览。。。不是吗?这些对我来说都没有任何意义:我不是iOS开发者,但我熟悉ffmpeg。您正在使用tee muxer来高效地创建两个输出。我不知道
%@
应该代表什么,但是您需要提供一种有效的流式输出格式,以便您的框架能够解码。它能处理MPEGT吗?你在找文件输出还是管道?好的。。忘记我上面贴的代码吧。。我可以使用ffmpeg访问avfoundation来捕获和流式传输视频内容。。但同时,我想向用户展示正在传输的内容。。为此,我想读取相机缓冲区并显示在我的UI中。。我的观点清楚吗?
ffmpeg
可以输出多种格式、协议和容器,但您没有指出UI需要什么。MP4文件中的H.264?管道、文件、流?等等。UIView支持哪些容器格式?如果我自己使用AVCaptureSession,我将使用AVCaptureVideoPreviewLayer。。正确的。。但在我的例子中,现在,我可能需要向UIView提供AVCaptureSampleBuffer数据,以便它可以显示相机预览。。。不是吗?这些对我来说都没有任何意义:我不是iOS开发者,但我熟悉ffmpeg。您正在使用tee muxer来高效地创建两个输出。我不知道
%@
应该代表什么,但是您需要提供一种有效的流式输出格式,以便您的框架能够解码。它能处理MPEGT吗?你在找文件输出还是管道?好的。。忘记我上面贴的代码吧。。我可以使用ffmpeg访问avfoundation来捕获和流式传输视频内容。。但同时,我想向用户展示正在传输的内容。。为此,我想读取相机缓冲区并显示在我的UI中。。我的观点清楚吗?
ffmpeg
可以输出多种格式、协议和容器,但您没有指出UI需要什么。MP4文件中的H.264?管道、文件、流?等