Streaming WebRTC是使用OSD层播放文件的好解决方案吗?

Streaming WebRTC是使用OSD层播放文件的好解决方案吗?,streaming,webrtc,Streaming,Webrtc,WebRTC是实现OSD显示的文件回放的好解决方案吗 即,发送设备按顺序(使用MediaStream或DataChannel)将*.webm文件流式传输出p2p, 然后,接收web浏览器显示视频并允许 用户是否需要打开和关闭OSD显示? (OSD层可以使用具有相同对等连接的相同数据通道 作为视频流的媒体流/数据通道。) 那么,这个用例是否与WebRTC的用途非常一致?您实际上希望使用WebRTC作为从服务器流式传输视频的手段?为什么所有的连接建立开销?与直接的HTTP服务视频相比,它有什么优势?

WebRTC是实现OSD显示的文件回放的好解决方案吗

即,发送设备按顺序(使用MediaStream或DataChannel)将*.webm文件流式传输出p2p, 然后,接收web浏览器显示视频并允许 用户是否需要打开和关闭OSD显示? (OSD层可以使用具有相同对等连接的相同数据通道 作为视频流的媒体流/数据通道。)


那么,这个用例是否与WebRTC的用途非常一致?

您实际上希望使用WebRTC作为从服务器流式传输视频的手段?为什么所有的连接建立开销?与直接的HTTP服务视频相比,它有什么优势?我也不清楚OSD是如何进入这个问题的。我希望一个嵌入式设备(如照相机)能够流式传输p2p,并确保网络浏览器的安全。例如,在web浏览器的用户请求查看存储在相机内部内存中的视频文件中的数据的特定时间帧之后,将使用该用例。我希望使用p2p来避免NAT遍历问题(我认为这不能通过HTTP解决方案来解决?)。在这种情况下,当然,WebRTC听起来可以帮助您实现这一点。对,所以下一个问题是,使用WebRTC获得正常(即准确)的OSD显示有多困难?我假设浏览器本身不支持任何OSD功能,因此我只能依靠通过数据通道发送OSD信息。但是如果是这样的话,我如何将数据通道(OSD)与视频(媒体流或其他数据通道)同步?当然,在WebRTC中实现OSD的其他想法也是受欢迎的。这只是我最初的想法,但不确定它是否最实用。您不应该也不能依赖WebRTC为您执行同步,这必须是一个特定于应用程序的解决方案。例如,如果您可以简单地给OSD数据加上时间戳,那么播放器可以根据播放视频的时间戳(现在-开始时间)显示正确的数据。在实践中对此并不确定,但值得一试。