.net core 网络摄像头到.Net核心服务器到HTML浏览器

.net core 网络摄像头到.Net核心服务器到HTML浏览器,.net-core,video-streaming,.net Core,Video Streaming,我正在从事一个嵌入式linux项目(仍然是一个四核cpu,资源非常丰富)。我想提供从系统中查看摄像机镜头的选项 我知道如何将静态视频从.net核心服务器发送到web,但我不清楚如何拍摄YUV片段->将其发送到linux托管的.net核心服务器->然后将其广播给订户 因为这是一个解决了的问题,尽量不要重新发明轮子。我不知道该如何包装你的录像。如果我将其编码为WebRTC,我想我可以将传入的套接字回显到服务器上的传出套接字,然后就好了。然而,我不知道怎么做 有什么建议吗?初始编码可以使用C++库,如

我正在从事一个嵌入式linux项目(仍然是一个四核cpu,资源非常丰富)。我想提供从系统中查看摄像机镜头的选项

我知道如何将静态视频从.net核心服务器发送到web,但我不清楚如何拍摄YUV片段->将其发送到linux托管的.net核心服务器->然后将其广播给订户


因为这是一个解决了的问题,尽量不要重新发明轮子。我不知道该如何包装你的录像。如果我将其编码为WebRTC,我想我可以将传入的套接字回显到服务器上的传出套接字,然后就好了。然而,我不知道怎么做


有什么建议吗?初始编码可以使用C++库,如果这是更方便的。

“如果我把它编码到WebRTC,我想我可以把传入的套接字呼入服务器到一个输出的套接字,并且很好。”不,它比这更复杂。但是,你可以使用一些工具。看看gstreamer,我已经开始看了。这似乎是我需要从启动客户机到服务器的一部分。对下一阶段有什么建议吗?如何处理传入连接并准备将其发送到web浏览器?您的延迟要求是什么?如果不需要低延迟,请不要使用WebRTC。你可以使用像HLS这样的东西,它可以简化很多事情。这取决于“低”在这个上下文中的含义,因为这是我第一次涉足流媒体直播软件。理想情况下,在同一个网络上,我希望延迟小于一两秒。目前,这样做的主要目的是通过分流管道的不同部分,减少迭代时间并轻松进行诊断,从而在AI和摄像头系统中实时调试问题。但是,如果在同一网络上,系统可能具有正在考虑的远程控制功能的时间为次秒。仍在研究现实的期望是什么。通过普通的HTTP渐进流,通过普通流可以获得亚秒的延迟。HLS和DASH等分段流协议本质上增加了大量延迟。(现在有人声称像“低延迟DASH”这样的解决方案,但这实际上回到了HTTP Progressive的工作方式,但有了DASH的缺点。如果你必须使用现成的东西,这很好,但在其他方面过于复杂。)WebRTC将为你提供最低的延迟,并处理编解码器协商等。这可能是你应该走的路线。