webRTC+;MCU:我自己的音频延迟了两次
假设一个房间里有50个扬声器。 比如说,像janus这样的服务器会将视频和音频信号组合成一个网格,然后显示并发出一个流(音频和视频)。 对于观众来说,这很好,因为他们只需要下载一个A/V流。 但是演讲者呢 如果我是演讲者,我希望看到与观众相同的网格,我会看到我延迟(这是可以的),也会听到我的声音延迟。这是一个巨大的问题,因为我无法理解自己在说什么 有什么方法可以解决这个问题:webRTC+;MCU:我自己的音频延迟了两次,webrtc,janus,Webrtc,Janus,假设一个房间里有50个扬声器。 比如说,像janus这样的服务器会将视频和音频信号组合成一个网格,然后显示并发出一个流(音频和视频)。 对于观众来说,这很好,因为他们只需要下载一个A/V流。 但是演讲者呢 如果我是演讲者,我希望看到与观众相同的网格,我会看到我延迟(这是可以的),也会听到我的声音延迟。这是一个巨大的问题,因为我无法理解自己在说什么 有什么方法可以解决这个问题: 扬声器在讲话时禁用收入音频(不太方便用户使用) 单独发送音频和视频信号-只有将所有音频信号单独发送给客户端时,这才有意义