Android 颤振:在firebase\u ml\u vision中使用来自颤振\u webrtc的纹理进行图像处理

Android 颤振:在firebase\u ml\u vision中使用来自颤振\u webrtc的纹理进行图像处理,android,flutter,dart,webrtc,firebase-mlkit,Android,Flutter,Dart,Webrtc,Firebase Mlkit,我们正在使用该软件包进行点对点视频通话。然而,我们需要使用计算机对相机图像进行一些图像处理。有很多关于如何将firebase_ml_vision与软件包一起使用的示例 问题是摄像头和Flatter_webrtc包不能一起使用,因为摄像头资源只能访问一次。 仅使用Flatter_webrtc不会有问题,但访问相机图像的唯一方法是抓取我们无法转换为适合firebase的图像的textureID 问题: 如何从Flatter_webrtc提供的纹理中提取字节 非常感谢任何其他建议。Hi,这里是Flat

我们正在使用该软件包进行点对点视频通话。然而,我们需要使用计算机对相机图像进行一些图像处理。有很多关于如何将firebase_ml_vision与软件包一起使用的示例

问题是摄像头和Flatter_webrtc包不能一起使用,因为摄像头资源只能访问一次。 仅使用Flatter_webrtc不会有问题,但访问相机图像的唯一方法是抓取我们无法转换为适合firebase的图像的textureID

问题: 如何从Flatter_webrtc提供的纹理中提取字节


非常感谢任何其他建议。

Hi,这里是Flatter_webrtc插件的合作者。您无法从纹理提取字节(afaik,即使可能,这也会带来明显的性能开销)。您必须更深入,修改java部分源代码,实现自己的
VideoSink
,并将视频帧提供给Firebase ML。所有这些都需要大量工作。我唯一能帮你的是附加你的实现
VideoSink
Hello Dima,我在存储库上打开了一个问题并得到了一个答案-但是我没有开始,因为我还没有太多关于Flutter的知识。。。你认为这可行吗?嗨,这里是Flatter_webrtc插件的合作者。您无法从纹理提取字节(afaik,即使可能,这也会带来明显的性能开销)。您必须更深入,修改java部分源代码,实现自己的
VideoSink
,并将视频帧提供给Firebase ML。所有这些都需要大量工作。我唯一能帮你的是附加你的实现
VideoSink
Hello Dima,我在存储库上打开了一个问题并得到了一个答案-但是我没有开始,因为我还没有太多关于Flutter的知识。。。你认为这可行吗?