沃森IBM语音到文本c#api

沃森IBM语音到文本c#api,c#,speech-recognition,speech-to-text,ibm-watson,C#,Speech Recognition,Speech To Text,Ibm Watson,我使用下面的示例来识别音频中的文本,但我还需要时间代码,我在第40行添加了“时间戳”:true,并删除了“中间结果”:true,因为我只需要最终结果。但它坏了,在{“state”:“listening”}消息之后,它需要一些时间并引发类似的异常 调用Websocket.Closeasync后收到的“Text”消息无效。Websockets。在closeasync的情况下,仅当您不希望从远程端点接收其他数据时,才应使用这些Websockets。使用“WebSocket.CloseOutputAsy

我使用下面的示例来识别音频中的文本,但我还需要时间代码,我在第40行添加了“时间戳”:true,并删除了
“中间结果”:true,因为我只需要最终结果。但它坏了,在
{“state”:“listening”}
消息之后,它需要一些时间并引发类似的异常 调用Websocket.Closeasync后收到的“Text”消息无效。Websockets。在closeasync的情况下,仅当您不希望从远程端点接收其他数据时,才应使用这些Websockets。使用“WebSocket.CloseOutputAsync”保留获取额外数据的可能性,但关闭传出频道。

如果我将
“continuous”:false设置为false,它只执行第一次语音迭代(暂停前的几个单词),然后重复
{“state”:“listing”}
,然后冻结


你能帮助我,如何更新该示例以返回时间码吗?

continuous:false
的意思是“只在第一次暂停前转录”——因此它不是“冻结”,当你告诉它时它只是停止

然后,服务发送最后的结果,然后是第二条
{“state”:“listening”}
消息,以指示它已完成发送结果。示例代码在此之后关闭连接,但听起来您在关闭连接后仍在尝试发送音频

我不确定,但我认为
时间戳
中间结果
在设置
continuous:false
后可能会按照您想要的方式工作

尽管如此,如果您只需要最终结果,那么HTTP接口可能更有意义。它比WebSocket简单得多


最后,正如我在电子邮件中提到的,官方的IBM Watson.net SDK现在就支持从语音到文本的转换,并且应该很快将其包括在内。

continuous:false
的意思是“只在第一次暂停前进行转录”-因此它不是“冻结”,当你告诉它时它只是停止

然后,服务发送最后的结果,然后是第二条
{“state”:“listening”}
消息,以指示它已完成发送结果。示例代码在此之后关闭连接,但听起来您在关闭连接后仍在尝试发送音频

我不确定,但我认为
时间戳
中间结果
在设置
continuous:false
后可能会按照您想要的方式工作

尽管如此,如果您只需要最终结果,那么HTTP接口可能更有意义。它比WebSocket简单得多


最后,正如我在电子邮件中提到的,官方的IBM Watson.net SDK现在就支持从语音到文本的转换,并且应该很快将其包括在内。

Thanx有关回复,我看到了您的电子邮件。官方sdk是针对.net核心的,我不太熟悉,也不确定是否可以在一个项目的核心库和“旧的.net”库中使用。我使用了python示例,并从我的c#应用程序运行它,在生成json之后,在c#::)Thanx使用它作为响应,我看到了您的电子邮件。官方sdk是针对.net核心的,我不太熟悉,也不确定是否可以在一个项目的核心库和“旧的.net”库中使用。我使用了python示例,并从我的c#应用程序中运行它,然后生成json,在c#:中使用它)