Java 场景窗体:将WebRTC媒体流渲染到ExternalTexture

Java 场景窗体:将WebRTC媒体流渲染到ExternalTexture,java,android,arcore,sceneform,Java,Android,Arcore,Sceneform,我正在尝试开发一个AR应用程序,帮助视力受损的人改善他们使用计算机的条件 我正在研究AR如何帮助HCI治疗视觉障碍,因此,应用程序使用WebRTC在AR环境下使用Sceneform放大计算机桌面 我已经成功地使用了Sceneform示例,但是,我不知道如何将WebRTC流直接渲染到ExternalTexture。-> 我已经尝试了一些答案,但是,没有找到线索 谢谢大家的回复,希望有人能有所了解。老实说,我还没有处理过这个问题。但我可以想出一个方法来解决这个问题 与其在纹理上进行chromaKey

我正在尝试开发一个AR应用程序,帮助视力受损的人改善他们使用计算机的条件

我正在研究AR如何帮助HCI治疗视觉障碍,因此,应用程序使用WebRTC在AR环境下使用Sceneform放大计算机桌面

我已经成功地使用了Sceneform示例,但是,我不知道如何将WebRTC流直接渲染到ExternalTexture。->

我已经尝试了一些答案,但是,没有找到线索


谢谢大家的回复,希望有人能有所了解。

老实说,我还没有处理过这个问题。但我可以想出一个方法来解决这个问题

与其在纹理上进行chromaKey渲染,不如尝试“ViewRenderable”(可视可渲染)渲染?使用此选项,您可以将任何android视图放置到节点。您只需要放置一个视频视图,然后执行webRTC魔术。让我知道这是否有效

增强图像示例-


ViewRenderable示例-

老实说,我没有使用过这个。但我可以想出一个方法来解决这个问题

与其在纹理上进行chromaKey渲染,不如尝试“ViewRenderable”(可视可渲染)渲染?使用此选项,您可以将任何android视图放置到节点。您只需要放置一个视频视图,然后执行webRTC魔术。让我知道这是否有效

增强图像示例-


ViewRenderable示例-

感谢您的回答,我正在阅读您的建议,您是对的Sceneform支持ViewRenderable,但是,它有不使用VideoView的限制(在WebRTC SurfaceViewRenderer中),您可以在这里看到:他们建议使用的是他们的chomakey视频示例,但他们使用MediaPlayer实例来设置纹理以绘制帧。最后,增强图像示例使用相同的策略,即使用纹理的MediaPlayer。期待:)感谢您的回答,我正在阅读您的建议,您是对的Sceneform支持ViewRenderable,但是,它有不使用VideoView的限制(在WebRTC SurfaceViewRenderer中),您可以在这里看到:他们建议使用的是他们的chomakey视频示例,但他们使用MediaPlayer实例来设置纹理以绘制帧。最后,增强图像示例使用相同的策略,即使用纹理的MediaPlayer。展望:)