Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/ios/120.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ios 在WebRTC调用期间在WebRTC中传输音频_Ios_Webrtc - Fatal编程技术网

Ios 在WebRTC调用期间在WebRTC中传输音频

Ios 在WebRTC调用期间在WebRTC中传输音频,ios,webrtc,Ios,Webrtc,我的应用程序使用GoogleWebRTC框架进行音频调用,这部分工作正常。不过,我想找到一种方法,在通话中传输音频文件 情景: A叫B B回答并播放音乐 A听听这音乐 我已经下载了WebRTC的全部源代码,并试图了解它是如何工作的。在iOS方面,它似乎正在使用音频单元。我可以看到语音处理单元文件。我会(可能错误地)假设我需要创建一个自定义的音频单元,从文件中读取数据 有人知道该往哪个方向走吗?在为这个问题争论了整整一周之后。我终于找到了解决这个问题的办法 通过编辑WebRTC代码,我能够达到Au

我的应用程序使用GoogleWebRTC框架进行音频调用,这部分工作正常。不过,我想找到一种方法,在通话中传输音频文件

情景: A叫B B回答并播放音乐 A听听这音乐

我已经下载了WebRTC的全部源代码,并试图了解它是如何工作的。在iOS方面,它似乎正在使用音频单元。我可以看到语音处理单元文件。我会(可能错误地)假设我需要创建一个自定义的音频单元,从文件中读取数据


有人知道该往哪个方向走吗?

在为这个问题争论了整整一周之后。我终于找到了解决这个问题的办法

通过编辑WebRTC代码,我能够达到AudioUnits的级别,并在AudioRenderingCallback中捕获io_数据缓冲区


此回调每10毫秒调用一次,以从麦克风获取数据。因此,在这个精确的回调中,我能够更改io_数据缓冲区,以放置我自己的音频数据。

您能展示一下如何播放音频流吗?在接收到远程音频流后,我是空白的。如何播放它们?您能告诉我您在webRTC代码中做了哪些更改以获取音频io_数据缓冲区吗?请分享一些代码