C# 使用.NET框架作为web服务的语音识别
如果我想构建一个web应用程序作为语音识别服务。简单地说,我想把一篇演讲转移到我的网站上,以便被识别,然后将演讲作为文本C# 使用.NET框架作为web服务的语音识别,c#,asp.net,.net,web-services,C#,Asp.net,.net,Web Services,如果我想构建一个web应用程序作为语音识别服务。简单地说,我想把一篇演讲转移到我的网站上,以便被识别,然后将演讲作为文本 在ASP.NET网站上运行此应用程序的最佳方法是什么?这里有许多部分 如何读取用户并将其发送到服务器 如何进行语音识别 将结果返回给用户 这里我回答第一部分,如何读取用户输入。对于如何进行语音识别,我认为您需要进行研究,以找到正确的模块。我知道的一个是Microsoft Speech SDK 1,您需要找到它 使用HTML5 一种新方法是将x-webkit-speech键
在ASP.NET网站上运行此应用程序的最佳方法是什么?这里有许多部分
- 如何读取用户并将其发送到服务器
- 如何进行语音识别
- 将结果返回给用户
x-webkit-speech
键用作:
<input type="text" x-webkit-speech="x-webkit-speech" />
然后,您可以将此数据发送到服务器进行语音识别
一些例子:
- 堆栈溢出问题
在Flash上的脚本中,您可以获得用户所说的内容以及服务器端的处理。这里有许多部分
- 如何读取用户并将其发送到服务器
- 如何进行语音识别
- 将结果返回给用户
x-webkit-speech
键用作:
<input type="text" x-webkit-speech="x-webkit-speech" />
然后,您可以将此数据发送到服务器进行语音识别
一些例子:
- 堆栈溢出问题
在Flash上的脚本上,您可以获得用户所说的内容以及服务器端的处理。一种方法是在服务器上运行WCF服务,使用Microsoft语音识别API(SAPI)进行语音识别,并让web服务与WCF服务进行对话。基本上,web服务需要获取音频、流式传输并将其发送到WCF服务 你可以在这篇文章中找到更多信息:
一种方法是在服务器上运行WCF服务,使用Microsoft语音识别API(SAPI)进行语音识别,并让web服务与WCF服务对话。基本上,web服务需要获取音频、流式传输并将其发送到WCF服务 你可以在这篇文章中找到更多信息:
您的回答有一定的帮助,但我想补充一些提示。我只想知道我应该使用什么样的库来执行语音识别,我不需要任何关于如何建立网站的帮助,我只想在我的网站上建立一个.NET服务,以某种方式从我的手机或笔记本电脑上获取我的语音,以识别它,然后返回所需的文本。此服务将通过桌面应用程序或移动应用程序使用,而不是通过网站本身使用。@MAMoselhie我不知道什么是最好的库,这是您需要自己检查的东西。我记得几年前在我的大学里有一个语音识别项目。这是很多大学多次做的事情,我不知道什么是最好的,你可以用什么。也许你甚至可以从谷歌api免费获得它,我不知道。。。一次又一次的测试。你的答案有一定的帮助,但我想补充一些提示。我只想知道我应该使用什么样的库来执行语音识别,我不需要任何关于如何建立网站的帮助,我只想在我的网站上建立一个.NET服务,以某种方式从我的手机或笔记本电脑上获取我的语音,以识别它,然后返回所需的文本。此服务将通过桌面应用程序或移动应用程序使用,而不是通过网站本身使用。@MAMoselhie我不知道什么是最好的库,这是您需要自己检查的东西。我记得几年前在我的大学里有一个语音识别项目。这是很多大学多次做的事情,我不知道什么是最好的,你可以用什么。也许你甚至可以从谷歌api免费获得它,我不知道。。。再次测试。SAPI在多线程应用程序中工作,还是旧的ActiveX控件?SAPI在多线程应用程序中工作,还是旧的ActiveX控件?