Speech recognition 服务器端听写

Speech recognition 服务器端听写,speech-recognition,sapi,speech-to-text,Speech Recognition,Sapi,Speech To Text,各位, 我正在尝试组装一个服务器端系统,在该系统中,我使用Microsoft SAPI来: 在服务器中同时执行多个听写样式识别。 此外,所有识别都可以使用不同的扬声器配置文件,我的应用程序将识别用户并向SAPI指示要加载的配置文件。 我还想以编程方式培训各种用户配置文件。 我已经知道,在托管代码(即System.speech命名空间)中无法实现上述某些功能。有没有人能告诉我,我正在尝试用SAPI 5.x做的事情在理论上是否可行 谢谢你的帮助 -拉吉你需要这样做。您仍然可以使用托管代码,但需要使用

各位, 我正在尝试组装一个服务器端系统,在该系统中,我使用Microsoft SAPI来:

在服务器中同时执行多个听写样式识别。 此外,所有识别都可以使用不同的扬声器配置文件,我的应用程序将识别用户并向SAPI指示要加载的配置文件。 我还想以编程方式培训各种用户配置文件。 我已经知道,在托管代码(即System.speech命名空间)中无法实现上述某些功能。有没有人能告诉我,我正在尝试用SAPI 5.x做的事情在理论上是否可行

谢谢你的帮助

-拉吉

你需要这样做。您仍然可以使用托管代码,但需要使用使用服务器引擎的Microsoft.Speech.Recognition库,而不是使用桌面引擎的System.Speech.Recognition库


除此之外,您想要的一切都可以在本地SAPI中完成。

Eric,谢谢您的回复。Microsoft.Speech.Recognition库不允许听写语法。在我的研究中,我发现目前微软的基于服务器的语音产品要么不听写,要么不暴露这种能力。此外,语音API的托管代码变体仅限于最常见的用例:在非服务器中编写语音感知用户交互应用程序。看起来本地SAPI是我所需要的。你仍然需要服务器引擎来完成你想要的。桌面引擎不能与电话质量的音频一起工作。正确。我正在考虑从基于web的flash/silverlight UI或移动应用程序将音频流传输到基于SAPI的服务器。您最终找到解决方案了吗?如果你这样做了,你应该把它作为一个答案贴出来。我最终使用了一个以这种方式使用SAPI的脱离自我的解决方案。退房