是否可以实时地在服务器中webrtc中的两个对等点之间保存视频流?

是否可以实时地在服务器中webrtc中的两个对等点之间保存视频流?,webrtc,video-conferencing,agora.io,Webrtc,Video Conferencing,Agora.io,假设我有两个同伴与webRTC交换视频。现在我需要将这两个流保存为中央服务器中的视频文件。有可能实时完成吗?(存储/上传来自对等方的视频不是一个选项) 我想建立一个3节点的webRTC连接,第三个节点是服务器。通过这种方式,我可以屏幕记录第三个节点的流或使用其他方式保存它。但我不确定实施的可靠性/可行性 这是针对移动应用程序的,我将避免使用任何涉及上传/保存的方法 PS:我使用Agora.io进行视频会议。Agora不提供现成的本地录制,但他们提供了电子代码,您可以使用自己的服务器启动自己的本地

假设我有两个同伴与webRTC交换视频。现在我需要将这两个流保存为中央服务器中的视频文件。有可能实时完成吗?(存储/上传来自对等方的视频不是一个选项)

我想建立一个3节点的webRTC连接,第三个节点是服务器。通过这种方式,我可以屏幕记录第三个节点的流或使用其他方式保存它。但我不确定实施的可靠性/可行性

这是针对移动应用程序的,我将避免使用任何涉及上传/保存的方法


PS:我使用Agora.io进行视频会议。

Agora不提供现成的本地录制,但他们提供了电子代码,您可以使用自己的服务器启动自己的本地录制。Agora提供了在GitHub上部署的代码和说明:

其工作方式是,一旦您设置了Agora Recording SDK,客户端将通过用户交互(点击按钮)或一些其他事件(即,
对等加入
流订阅
)触发录制服务开始录制,这将触发录制服务加入频道并录制流_一旦停止录制,服务将输出视频文件。

在我看来 您可以像录制演示一样执行此操作:

将每个流记录为blob,并使用websocket将它们推送到服务器

然后将blob转换为webm文件或添加视频

您需要一个WebRTC媒体服务器

WebRTC媒体服务器可以支持更复杂的 场景WebRTC媒体服务器是充当WebRTC客户端的服务器 但是在服务器端运行。它们是媒体的终止点 我们希望采取行动的地方。在WebRTC媒体上完成的常用任务 服务器包括:

群呼录制广播和流媒体直播网关 网络/协议服务器端机器学习云渲染 (游戏或3D)有冒险精神和坚强意志的人会去发展 他们自己的WebRTC媒体服务器。大多数人会选择商业服务或服务 一个开源的。对于后者,请查看以下选择提示 WebRTC开源媒体服务器框架

在许多情况下,开发人员正在寻找的是对 群组呼叫,几乎总是需要媒体服务器。 在这种情况下,您需要决定是否进行分类(以及 现在有点旧)MCU混合模式或与更接受和 现代SFU路由模型。你还需要考虑很多关于 调整WebRTC媒体服务器的大小

要录制WebRTC会话,您可以在客户端上进行 服务器端或服务器端。在这两种情况下,您都需要一台服务器,但是 这台服务器是什么以及它的工作方式在每种情况下都会有很大的不同 案例

如果你想要的是广播,那么你需要考虑 WebRTC会话的广播大小


链接:

是否可以使用webRTC?