Three.js 将延迟呈现WebGL管道移植到aframe.js
我有一个WebGL 2应用程序,它通过延迟管道渲染一束点光源。我想把它移植到一个框架上,与Oculus Rift S一起使用 我的问题只涉及渲染。现在我几乎不知道VR特定的渲染;除了为每只眼睛渲染两幅图像,然后通过一些失真过滤器之外。我看到有一些组件(上次更新是很久以前的)提供了这个功能。我的管道是用低级WebGL库编写的,我不想将其移植到其他组件(性能、兼容性原因+我自己的虚荣) 我还希望尽可能避免将此管道与three.js直接集成。现在,我有一个基本的three.js场景,带有一个带有延迟渲染器输出的全屏四边形纹理。我假设保持原样,将此场景推到帧中不会在裂缝上正确渲染,那么如何为帧中的每只眼睛渲染两个全屏四边形呢?每只眼睛的相机平截体和视图是否容易在一帧中曝光?我的想法完全偏离了方向吗 感谢您的帮助,我已经浏览了一段时间的aframe git,但找不到任何清晰的起点Three.js 将延迟呈现WebGL管道移植到aframe.js,three.js,webgl,aframe,oculus,deferred-rendering,Three.js,Webgl,Aframe,Oculus,Deferred Rendering,我有一个WebGL 2应用程序,它通过延迟管道渲染一束点光源。我想把它移植到一个框架上,与Oculus Rift S一起使用 我的问题只涉及渲染。现在我几乎不知道VR特定的渲染;除了为每只眼睛渲染两幅图像,然后通过一些失真过滤器之外。我看到有一些组件(上次更新是很久以前的)提供了这个功能。我的管道是用低级WebGL库编写的,我不想将其移植到其他组件(性能、兼容性原因+我自己的虚荣) 我还希望尽可能避免将此管道与three.js直接集成。现在,我有一个基本的three.js场景,带有一个带有延迟渲