我应该从哪里开始使用webrtc将hololens实时流式传输到python服务器?

我应该从哪里开始使用webrtc将hololens实时流式传输到python服务器?,python,c#,server,uwp,hololens,Python,C#,Server,Uwp,Hololens,最近,我一直在做一个项目,将Hololens视频和音频流传输到python服务器。 这就是将hololens视频帧发送到python服务器,并使用python进行图像处理 在Hololens上,我使用unity作为开发平台,我想使用webrtc(基于此repo)。 我想我只是知道webrtc如何工作的概念。但是对于代码,我只是不知道从哪里开始实现这种技术。 希望任何人都能给我提示。我不熟悉Python,但作为视频接收器的Python服务器应该遵循WebRTC规范。我相信Github中有可靠的与W

最近,我一直在做一个项目,将Hololens视频和音频流传输到python服务器。 这就是将hololens视频帧发送到python服务器,并使用python进行图像处理

在Hololens上,我使用unity作为开发平台,我想使用webrtc(基于此repo)。 我想我只是知道webrtc如何工作的概念。但是对于代码,我只是不知道从哪里开始实现这种技术。
希望任何人都能给我提示。

我不熟悉Python,但作为视频接收器的Python服务器应该遵循WebRTC规范。我相信Github中有可靠的与WebRTC相关的Python库。 对于HoloLens方面,由于您提到您正在使用Unity进行开发,这将向您展示如何在Unity中实现混合现实WebRtc


简而言之,我们应该向场景中的新游戏对象添加组件。然后添加NodeDSSignaler组件并将其配置为连接到节点DSS服务器。接下来,创建一个新的游戏对象并添加一个组件,这个组件可以从本地视频捕获设备(网络摄像头)生成视频帧,我们需要对其进行配置。最后,将PeerConnection组件的Video Sender属性指定给之前创建的WebTransource组件。

我做了一个实验,通过WebSocket将HoloLens流式传输到web浏览器。但我正在为如何在Unity2019上获取网络摄像头视图而苦苦挣扎。我实验中的工具叫做FMETP流