使用WebSocket和WebGL渲染的流式视频

使用WebSocket和WebGL渲染的流式视频,websocket,video-streaming,webgl,Websocket,Video Streaming,Webgl,我有一个想法,在WebGL中使用WebSocket渲染视频数据流。我知道我们可以将视频数据(一帧)作为纹理从标记导入WebGL。然而,我在想,我是否可以使用套接字来代替它,这样我就可以更好地控制它。这个想法可能吗 谢谢, Yi使用WebSocket实现简单的网络摄像头共享。他实际上是在WebSocket上一次发送一帧Base64编码的JPEG图像,并在收到后立即将其分配给浏览器端的的src属性 根据页面显示,他在Chrome上的速度达到640×480@30fps,在iPhone/iPad上的速度

我有一个想法,在WebGL中使用WebSocket渲染视频数据流。我知道我们可以将视频数据(一帧)作为纹理从
标记导入WebGL。然而,我在想,我是否可以使用套接字来代替它,这样我就可以更好地控制它。这个想法可能吗

谢谢, Yi使用WebSocket实现简单的网络摄像头共享。他实际上是在WebSocket上一次发送一帧Base64编码的JPEG图像,并在收到后立即将其分配给浏览器端的
src
属性

根据页面显示,他在Chrome上的速度达到640×480@30fps,在iPhone/iPad上的速度达到320×240@30fps

我不明白为什么不能在事后使用图像数据创建WebGL纹理:

var textureImg=document.getElementById(“myTextureImg”);
var texture=gl.createTexture();
gl.activeTexture(gl.TEXTURE0);
gl.bindTexture(gl.TEXTURE_2D,纹理);
gl.Texamage2D(gl.TEXTURE_2D,0,TextureMg);
gl.GenerateMap(gl.TEXTURE_2D);
等等