来自iOS的实时流媒体音频

来自iOS的实时流媒体音频,ios,audio,streaming,core-audio,Ios,Audio,Streaming,Core Audio,我已经尝试从iOS直播音频(AAC-LC)三个月了,但没有太大成功 我尝试了音频队列,它工作得很好,但是有一个奇怪的延迟(~4s),我不知道为什么(高级API?) 我试过音频单元,它有时在模拟器上工作,但从来没有在手机上使用修改过的源代码 我真的迷路了,有人能帮我吗 编辑 我必须做一个实时流媒体应用程序(iPhone->Wowza服务器通过RTSP)。视频部分工作良好,延迟很小(1s)。现在,我试图在视频之外添加音频,但我仍然坚持使用SDK tldr:我需要捕获麦克风输入,然后通过网络发送A

我已经尝试从iOS直播音频(AAC-LC)三个月了,但没有太大成功

  • 我尝试了音频队列,它工作得很好,但是有一个奇怪的延迟(~4s),我不知道为什么(高级API?)
  • 我试过音频单元,它有时在模拟器上工作,但从来没有在手机上使用修改过的源代码
我真的迷路了,有人能帮我吗

编辑 我必须做一个实时流媒体应用程序(iPhone->Wowza服务器通过RTSP)。视频部分工作良好,延迟很小(1s)。现在,我试图在视频之外添加音频,但我仍然坚持使用SDK


tldr:我需要捕获麦克风输入,然后通过网络发送AAC帧,而不会产生巨大延迟

我刚刚完成的这个应用程序在同一网络上的任意两个iOS设备之间广播音频:

使用最新的测试版Xcode 9编译它,并在两台iOS 11(测试版)设备上运行它

应用程序很简单;你启动它,然后开始说话。从网络连接到音频流,一切都是自动的

应用程序生成的事件显示在应用程序的事件日志中:


尽管代码简单明了,但提供事件日志的目的是为了更快、更容易地了解应用程序的体系结构。

我刚刚完成的这个应用程序在同一网络上的任意两个iOS设备之间广播音频:

使用最新的测试版Xcode 9编译它,并在两台iOS 11(测试版)设备上运行它

应用程序很简单;你启动它,然后开始说话。从网络连接到音频流,一切都是自动的

应用程序生成的事件显示在应用程序的事件日志中:


尽管代码简单明了,但提供事件日志的目的是为了更快、更容易地了解应用程序的体系结构。

如果不了解应用程序和代码站点,获得帮助的机会微乎其微。我建议改进你的问题。我编辑了一点,希望它能对你有所帮助。如果你不了解你的代码的应用程序和站点,那么得到帮助的机会很小。我建议改进你的问题。我编辑了一点,希望能对你有所帮助。谢谢,尽管它对我来说已经很老了——而且我从来没有让它“准备好生产”过——我会看看你的代码:)一定要让我知道你的结果;使用任何可供开发人员使用的框架都很难实现实时双向音频流。我认为这是故意的;它使开发人员无法与FaceTime竞争,也无法为主要运营商提供替代方案。知道这有多困难以及原因,我真的会怀疑一个工作要求,即我必须为iPhone组装一个“生产就绪”的电信系统。这听起来没有信息,因为这是不现实的。出于某种原因,当我在两台不同的设备上打开这个应用程序时,每台设备都会自己流,而不是像我预期的那样彼此流。有什么不对劲吗?你是否也更新了这个项目,或者发布了它?谢谢,尽管它对我来说已经很老了——而且我从来没有让它“准备好生产”——我会看看你的代码:)一定要让我知道你的结果;使用任何可供开发人员使用的框架都很难实现实时双向音频流。我认为这是故意的;它使开发人员无法与FaceTime竞争,也无法为主要运营商提供替代方案。知道这有多困难以及原因,我真的会怀疑一个工作要求,即我必须为iPhone组装一个“生产就绪”的电信系统。这听起来没有信息,因为这是不现实的。出于某种原因,当我在两台不同的设备上打开这个应用程序时,每台设备都会自己流,而不是像我预期的那样彼此流。有什么不对劲吗?你是更新项目还是发布项目?