Google Meet:WebRTC点对点和语音对文本
我在Google Meet上开会,看到你可以打开实时字幕。他们实际上已经有了一个演示,演示了如何从语音到文本的实时转换,所以这一点不会让我感到困惑 我还想尝试一下WebRTC(我相信GoogleMeet会使用它),看看它的功能——例如,在没有任何额外屏幕的情况下共享屏幕的功能 然而,我一直认为WebRTC视频/音频流是客户端对等的。因此,我的问题是:Google Meet:WebRTC点对点和语音对文本,webrtc,Webrtc,我在Google Meet上开会,看到你可以打开实时字幕。他们实际上已经有了一个演示,演示了如何从语音到文本的实时转换,所以这一点不会让我感到困惑 我还想尝试一下WebRTC(我相信GoogleMeet会使用它),看看它的功能——例如,在没有任何额外屏幕的情况下共享屏幕的功能 然而,我一直认为WebRTC视频/音频流是客户端对等的。因此,我的问题是: 那么,谷歌如何能够将音频流发送到服务器上,以供用户使用呢 分析 是否可以将音频流发送到客户端 以及服务器 您需要创建两个相同的音频吗 流(我不知
- 那么,谷歌如何能够将音频流发送到服务器上,以供用户使用呢 分析李>
- 是否可以将音频流发送到客户端 以及服务器
- 您需要创建两个相同的音频吗 流(我不知道这是否可能),通过WebRTC发送一个 发送到其他对等方,另一个发送到服务器进行分析
他们是如何做到这一点的?如果他们不使用WebRTC,是否可以使用WebRTC实现这一点?Google Meet正在使用WebRTC。在这种情况下,“对等”是服务器,而不是浏览器。虽然六年前,一些细节已经发生了变化,但大部分仍然是事实。 从服务器谷歌可以做音频处理
描述语音到文本(以及实际翻译+再次文本到语音)所需的体系结构。谢谢。我认为WebRTC P2P的全部目的是绕过服务器直接进入客户端,因此这可能是一个愚蠢的问题。谢谢你!