C# 使用.Net内核录制和广播Http实时流
C# 使用.Net内核录制和广播Http实时流,c#,asp.net-core,webrtc,http-live-streaming,C#,Asp.net Core,Webrtc,Http Live Streaming,我想实现从手机摄像头或显示屏捕获的实时流,我使用.NetCore和WebRTC和ffmpeg在服务器上拥有hls实时流,并通过http向多用户广播。 示意图如下所示: WebRTC(摄像头/显示屏)==>.NetCore服务器=>FFMPEG(转码)=>HLS流 我读了一些文章,但我不知道如何从webrtc发送数据并用asp.net接收数据。 如何实现此结构? 该结构在成本方面是正确的结构还是该解决方案不正确? 有谁能帮助我进行实时录制和广播流吗?请参见以下内容:此示例提供了一个如何使用dotn
我想实现从手机摄像头或显示屏捕获的实时流,我使用
.NetCore
和WebRTC
和ffmpeg
在服务器上拥有hls实时流,并通过http向多用户广播。
示意图如下所示:
WebRTC(摄像头/显示屏)
==>.NetCore服务器
=>FFMPEG(转码)
=>HLS流
我读了一些文章,但我不知道如何从webrtc发送数据并用asp.net接收数据。
如何实现此结构?
该结构在成本方面是正确的结构还是该解决方案不正确?
有谁能帮助我进行实时录制和广播流吗?请参见以下内容:此示例提供了一个如何使用dotnet接收WebRTC流的原型(它包装了所需的ffmpeg库,但没有转码)。对HLS部分没有帮助。找到解决方案了吗?我也在寻找它,我只是想在网站上录制和直播视频。请看下面的例子:这个例子有一个原型,介绍了如何使用dotnet接收WebRTC流(它包装了所需的ffmpeg库,但没有转码)。对HLS部分没有帮助。找到解决方案了吗?我也在寻找它,我只是想在网站上录制和直播视频