Stream WebRtc VP8自定义视频

Stream WebRtc VP8自定义视频,stream,webrtc,webm,vp8,Stream,Webrtc,Webm,Vp8,我想通过网络将rgb帧(实时)数据作为视频流传输到浏览器(chrome/firefox) 所以我完成了rgb->yuv->yv12->vp8转换。我可以在本地播放vp8视频,看起来不错 现在,我需要能够将这些数据提供给webrtc,以便其他“客户机”可以看到这一点 现在这可行吗 我打算将vp8包装在一个webm视频文件上,但不写实际的文件长度,因为我不知道长度,因为它是一个实时流,并在浏览器上创建一个标记,然后开始输入数据。(我以前用Theora做过这件事,“假装流媒体,确实有点慢,而且是TCP

我想通过网络将rgb帧(实时)数据作为视频流传输到浏览器(chrome/firefox)

所以我完成了rgb->yuv->yv12->vp8转换。我可以在本地播放vp8视频,看起来不错

现在,我需要能够将这些数据提供给webrtc,以便其他“客户机”可以看到这一点

现在这可行吗

我打算将vp8包装在一个webm视频文件上,但不写实际的文件长度,因为我不知道长度,因为它是一个实时流,并在浏览器上创建一个标记,然后开始输入数据。(我以前用Theora做过这件事,“假装流媒体,确实有点慢,而且是TCP,但工作有延迟)

或者我将把数据提供给webrtc。我甚至不知道api是否允许这样的事情。我可能需要对它进行一些修改

概述:进程A创建一个NxM rgb视频并将其写入其缓冲区。
进程B通过IPC读取缓冲区并将其编码为VP8,进程B将其发送到webm或webRtc中带有VP8的浏览器。

据我所知,这是不可能的。视频只能来自系统上配置的设备(网络摄像头、音频等).我相信我不久前读过的一份提议的规范草案中是有可能的,但我们还没有。我知道他们正在努力允许从web audioAPI访问,但我不确定当前的状态