Streaming 从截图创建FLV流的最佳方法

Streaming 从截图创建FLV流的最佳方法,streaming,directx,real-time,jpeg,video-encoding,Streaming,Directx,Real Time,Jpeg,Video Encoding,我想创建一个FLV流,该流由从directx应用程序中获取的图像生成,最终出现在网页上 我目前的计划是(已经)将截图作为JPG:s从dx应用程序发送到Linux上运行的客户端。此客户端将JPG:s转换为MJPEG流。ffmpeg将MJPEG流转换为FLV,最终在浏览器的Flash播放器中显示 有点像 在windows计算机上运行dx应用程序,它会侦听要将屏幕截图JPG:s发送到的连接 在linux机器上/jpg_to_mjpeg_客户端| ffmpeg-f mjpeg-i-output.flv

我想创建一个FLV流,该流由从directx应用程序中获取的图像生成,最终出现在网页上

我目前的计划是(已经)将截图作为JPG:s从dx应用程序发送到Linux上运行的客户端。此客户端将JPG:s转换为MJPEG流。ffmpeg将MJPEG流转换为FLV,最终在浏览器的Flash播放器中显示

有点像

  • 在windows计算机上运行dx应用程序,它会侦听要将屏幕截图JPG:s发送到的连接
  • 在linux机器上/jpg_to_mjpeg_客户端| ffmpeg-f mjpeg-i-output.flv
  • 我原以为这个计划很好,但现在我被卡住了。ffmpeg似乎无法正确处理来自客户端的MJPEG流。我使用了我在网上找到的一些代码来从JPG:s创建MJPEG流,我知道MJPEG格式没有真正的规范,所以他们可能不使用相同的MJPEG格式或其他东西

    现在我正在为dx应用程序的每一帧发送[size of JPG buffer],[JPG buffer]。我想我也可以在那里编码一些流,但另一方面,我也不想在渲染机上浪费太多CPU

    你会怎么做?任何提示都非常感谢!库/API:要使用的,其他解决方案。。我在视频编码方面没有太多经验,但我对“通用编程”非常熟悉

    C或C++是首选,但是java或Python也可以。不过我想快点- 必须实时创建,dx应用程序中的一个帧应尽快在浏览器中结束:-)

    哦,未来的计划是,它应该是交互式的,这样我就可以通过浏览器中的webapp与DX应用程序通信/控制DX应用程序。也可以添加这些信息。有点像基于网络的录像机,电影通过DX应用程序实时呈现


    谢谢,

    在Linux上使用gstreamer。您可以使用您喜欢的任何编解码器将几乎任何输入和输出组合拼接在一起。这是一个有点麻烦的学习过程。

    为了记录在案,我通过让DX应用程序通过HTTP以MJPEG的形式发送JPG:s,在这一点上又前进了一步。ffmpeg接受了这一点,并且能够从中输出MPG视频。现在剩下的是FLV流媒体,我将尝试使用ffserver。