Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/joomla/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google Meet:WebRTC点对点和语音对文本_Webrtc - Fatal编程技术网

Google Meet:WebRTC点对点和语音对文本

Google Meet:WebRTC点对点和语音对文本,webrtc,Webrtc,我在Google Meet上开会,看到你可以打开实时字幕。他们实际上已经有了一个演示,演示了如何从语音到文本的实时转换,所以这一点不会让我感到困惑 我还想尝试一下WebRTC(我相信GoogleMeet会使用它),看看它的功能——例如,在没有任何额外屏幕的情况下共享屏幕的功能 然而,我一直认为WebRTC视频/音频流是客户端对等的。因此,我的问题是: 那么,谷歌如何能够将音频流发送到服务器上,以供用户使用呢 分析 是否可以将音频流发送到客户端 以及服务器 您需要创建两个相同的音频吗 流(我不知

我在Google Meet上开会,看到你可以打开实时字幕。他们实际上已经有了一个演示,演示了如何从语音到文本的实时转换,所以这一点不会让我感到困惑

我还想尝试一下WebRTC(我相信GoogleMeet会使用它),看看它的功能——例如,在没有任何额外屏幕的情况下共享屏幕的功能

然而,我一直认为WebRTC视频/音频流是客户端对等的。因此,我的问题是:

  • 那么,谷歌如何能够将音频流发送到服务器上,以供用户使用呢 分析
  • 是否可以将音频流发送到客户端 以及服务器
  • 您需要创建两个相同的音频吗 流(我不知道这是否可能),通过WebRTC发送一个 发送到其他对等方,另一个发送到服务器进行分析

他们是如何做到这一点的?如果他们不使用WebRTC,是否可以使用WebRTC实现这一点?

Google Meet正在使用WebRTC。在这种情况下,“对等”是服务器,而不是浏览器。虽然六年前,一些细节已经发生了变化,但大部分仍然是事实。 从服务器谷歌可以做音频处理


描述语音到文本(以及实际翻译+再次文本到语音)所需的体系结构。

谢谢。我认为WebRTC P2P的全部目的是绕过服务器直接进入客户端,因此这可能是一个愚蠢的问题。谢谢你!