Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/variables/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
webRTC+;MCU:我自己的音频延迟了两次_Webrtc_Janus - Fatal编程技术网

webRTC+;MCU:我自己的音频延迟了两次

webRTC+;MCU:我自己的音频延迟了两次,webrtc,janus,Webrtc,Janus,假设一个房间里有50个扬声器。 比如说,像janus这样的服务器会将视频和音频信号组合成一个网格,然后显示并发出一个流(音频和视频)。 对于观众来说,这很好,因为他们只需要下载一个A/V流。 但是演讲者呢 如果我是演讲者,我希望看到与观众相同的网格,我会看到我延迟(这是可以的),也会听到我的声音延迟。这是一个巨大的问题,因为我无法理解自己在说什么 有什么方法可以解决这个问题: 扬声器在讲话时禁用收入音频(不太方便用户使用) 单独发送音频和视频信号-只有将所有音频信号单独发送给客户端时,这才有意义

假设一个房间里有50个扬声器。 比如说,像janus这样的服务器会将视频和音频信号组合成一个网格,然后显示并发出一个流(音频和视频)。 对于观众来说,这很好,因为他们只需要下载一个A/V流。 但是演讲者呢

如果我是演讲者,我希望看到与观众相同的网格,我会看到我延迟(这是可以的),也会听到我的声音延迟。这是一个巨大的问题,因为我无法理解自己在说什么

有什么方法可以解决这个问题:

  • 扬声器在讲话时禁用收入音频(不太方便用户使用)
  • 单独发送音频和视频信号-只有将所有音频信号单独发送给客户端时,这才有意义,因为只有这样客户端才能禁用特定的音频信号。但是客户端必须下载50倍的音频流。这也是一个糟糕的解决方案
  • 你知道还有别的办法吗