使用WebSocket和WebGL渲染的流式视频
我有一个想法,在WebGL中使用WebSocket渲染视频数据流。我知道我们可以将视频数据(一帧)作为纹理从使用WebSocket和WebGL渲染的流式视频,websocket,video-streaming,webgl,Websocket,Video Streaming,Webgl,我有一个想法,在WebGL中使用WebSocket渲染视频数据流。我知道我们可以将视频数据(一帧)作为纹理从标记导入WebGL。然而,我在想,我是否可以使用套接字来代替它,这样我就可以更好地控制它。这个想法可能吗 谢谢, Yi使用WebSocket实现简单的网络摄像头共享。他实际上是在WebSocket上一次发送一帧Base64编码的JPEG图像,并在收到后立即将其分配给浏览器端的的src属性 根据页面显示,他在Chrome上的速度达到640×480@30fps,在iPhone/iPad上的速度
标记导入WebGL。然而,我在想,我是否可以使用套接字来代替它,这样我就可以更好地控制它。这个想法可能吗
谢谢,
Yi使用WebSocket实现简单的网络摄像头共享。他实际上是在WebSocket上一次发送一帧Base64编码的JPEG图像,并在收到后立即将其分配给浏览器端的
的src
属性
根据页面显示,他在Chrome上的速度达到640×480@30fps,在iPhone/iPad上的速度达到320×240@30fps
我不明白为什么不能在事后使用图像数据创建WebGL纹理:
var textureImg=document.getElementById(“myTextureImg”);
var texture=gl.createTexture();
gl.activeTexture(gl.TEXTURE0);
gl.bindTexture(gl.TEXTURE_2D,纹理);
gl.Texamage2D(gl.TEXTURE_2D,0,TextureMg);
gl.GenerateMap(gl.TEXTURE_2D);
等等