使用Android MediaProjection API的输出作为libjingle WebRTC库的源?

使用Android MediaProjection API的输出作为libjingle WebRTC库的源?,android,webrtc,libjingle,android-mediaprojection,Android,Webrtc,Libjingle,Android Mediaprojection,我正在尝试创建一个Android应用程序,它利用将用户的Android桌面投影到使用WebRTC的对等方。为此,我已成功使用重新创建应用程序,使用: compile 'io.pristine:libjingle:10531@aar' 在我的应用程序build.gradle文件中。apprtc示例与演示网站配合得很好。我还创建了一个单独的应用程序,它使用Android API 21中引入的MediaProjection库,将用户的屏幕记录到一个H.264编码的mp4文件中 现在,我想将这两个想法

我正在尝试创建一个Android应用程序,它利用将用户的Android桌面投影到使用WebRTC的对等方。为此,我已成功使用重新创建应用程序,使用:

compile 'io.pristine:libjingle:10531@aar'
在我的应用程序build.gradle文件中。apprtc示例与演示网站配合得很好。我还创建了一个单独的应用程序,它使用Android API 21中引入的
MediaProjection
库,将用户的屏幕记录到一个H.264编码的mp4文件中

现在,我想将这两个想法结合到一个应用程序中,该应用程序利用来自
MediaProjection
MediaRecorder
的原始流,或者至少是H.264编码文件,作为WebRTC对等连接的视频/音频流。这可能吗?libjingle中的
PeerConnection.addStream
方法需要一个
MediaStream
实例。如何从原始流或生成的mp4文件创建类型为
MediaStream
的对象


感谢您提供的任何见解

我也有同样的问题。你解决这个问题了吗?你能指导我解决这个问题吗?谢谢