Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/macos/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Objective c Mac OS X上的RTSP桌面流媒体_Objective C_Macos_Video Streaming_Server_Rtsp - Fatal编程技术网

Objective c Mac OS X上的RTSP桌面流媒体

Objective c Mac OS X上的RTSP桌面流媒体,objective-c,macos,video-streaming,server,rtsp,Objective C,Macos,Video Streaming,Server,Rtsp,我正在从事一个项目,该项目需要通过本地WiFi网络从mac到iOS设备的低延迟桌面流媒体传输。 由于需要非常大的带宽,在尝试通过网络发送图像失败后,我在这里问了一个问题,发现视频流更适合我的应用 我已经阅读并发现RTSP协议非常适合这种情况,并且在移动端发现了一个库,它似乎可以很好地接收和显示RTSP流 问题是,我仍然不知道如何生成RTSP屏幕流。我目前能想到的步骤是 捕获Mac的桌面并将其编码为mpeg流 将流馈送到某种类型的RTSP服务器库中 我的观点正确吗?有没有指向我的出发点 FFMpe

我正在从事一个项目,该项目需要通过本地WiFi网络从mac到iOS设备的低延迟桌面流媒体传输。 由于需要非常大的带宽,在尝试通过网络发送图像失败后,我在这里问了一个问题,发现视频流更适合我的应用

我已经阅读并发现RTSP协议非常适合这种情况,并且在移动端发现了一个库,它似乎可以很好地接收和显示RTSP流

问题是,我仍然不知道如何生成RTSP屏幕流。我目前能想到的步骤是

  • 捕获Mac的桌面并将其编码为mpeg流
  • 将流馈送到某种类型的RTSP服务器库中
  • 我的观点正确吗?有没有指向我的出发点


    FFMpeg是一个在处理视频编码等问题时经常出现的名称,但我目前不知道如何将所有这些结合起来,因为FFMpeg似乎处理的是文件,而不是流。

    FFMpeg可以处理所有问题!:-)文件、流……我目前正在使用AVFoundation的AVCaptureScreenInput,通过AVCaptureSession路由到AVCaptureVideoDataOutput。这将输出“CMSampleBuffer”,我认为它应该与FFMpeg一起使用@DmitriSosnik知道如何在Xcode中包含FFMpeg吗?我一直收到编译器警告、错误和其他信息。lol。在项目中拖动FFMpeg源文件夹会显示一个“创建外部构建系统项目”窗口,我取消选中该窗口,然后选择仅将文件复制到项目中。但也有错误。而且,FFMpeg代码本身似乎是一个独立的应用程序。如何将其添加,甚至用作库?我在这里不知所措。看看@DmitriSosnik,这不是iOS设备吗?我将把它添加到项目的Mac OS端。