Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/objective-c/27.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Iphone 如何将AVAudioRecorder录制的语音转换为objective-c中的文本?_Iphone_Objective C_Text_Avaudiorecorder - Fatal编程技术网

Iphone 如何将AVAudioRecorder录制的语音转换为objective-c中的文本?

Iphone 如何将AVAudioRecorder录制的语音转换为objective-c中的文本?,iphone,objective-c,text,avaudiorecorder,Iphone,Objective C,Text,Avaudiorecorder,我正在进行一个项目,我必须将语音转换成文本,然后匹配模式,并根据用户命令执行操作 我能够通过音频录像机录制用户的声音并执行操作。但这些操作是根据用户所说的任何内容执行的。我想在用户的特定单词上执行,比如如果他说播放,那么播放应该开始 通过任何教程或示例代码帮助我 提前感谢大多数应用程序(包括Siri)通过将声音文件发送到远程数据中心进行语音识别,这涉及到一些相当繁重的处理。Nuance可能有一个商业API 另一个选择可能是尝试使用PocketSphinx语音库,它已经移植到iPhone上。另外,

我正在进行一个项目,我必须将语音转换成文本,然后匹配模式,并根据用户命令执行操作

我能够通过音频录像机录制用户的声音并执行操作。但这些操作是根据用户所说的任何内容执行的。我想在用户的特定单词上执行,比如如果他说播放,那么播放应该开始

通过任何教程或示例代码帮助我

提前感谢

大多数应用程序(包括Siri)通过将声音文件发送到远程数据中心进行语音识别,这涉及到一些相当繁重的处理。Nuance可能有一个商业API


另一个选择可能是尝试使用PocketSphinx语音库,它已经移植到iPhone上。另外,请看这篇关于跑步的文章。

开场白来自Politepix;CMU Pocketsphinx库是其依赖项之一。Pocketsphinx确实有一个用于iPad/iPhone的配置脚本,可以创建一个不需要OpenEars的编译库,而OpenEars将Pocketsphinx与Flite TTS、动态语言模型生成和remoteio音频驱动程序/音频会话包装器捆绑在一起,可以进行免提连续识别,作为一个交叉项目引用的静态库(我是开发人员)。除了下面提到的OpenEars和VocalKit之外,还有其他方法可以实现这一点。我也试图用AVAudioRecorder检索文本细节,但还没有解决方案。任何帮助都将不胜感激。