Python 是否可以向microsoft认知说话人识别发送实时数据?
我正在写一个应用程序,它应该接收音频并将其发送到说话人识别API以获取文本。我使用了服务库,它使用wav文件。因此,我编写了自己的流,从麦克风或网络(RTP)接收音频,并将其发送到识别API。当我在音频流前面添加WAV头时,它会工作几秒钟 调试表明,识别api读取表单流的速度比音频源(16k samplerate,16位,mono)填充的速度快 所以我的问题是:有没有一种方法可以将recognizeapi用于实时(连续)音频流 我知道有一个麦克风客户端的例子,但它只适用于麦克风,我需要它用于不同的来源你是说语音识别(而不是说话人)?我问你是因为你说“获取文本”。如果是前者,请先修复文本,然后添加语音识别标签;如果是后者,您可以添加语音识别标签。您指的是语音识别(相对于说话人)?我问你是因为你说“获取文本”。如果是前者,请先修复文本,然后添加语音识别标签;如果是后者,您可以添加语音识别标签。Python 是否可以向microsoft认知说话人识别发送实时数据?,python,microsoft-cognitive,Python,Microsoft Cognitive,我正在写一个应用程序,它应该接收音频并将其发送到说话人识别API以获取文本。我使用了服务库,它使用wav文件。因此,我编写了自己的流,从麦克风或网络(RTP)接收音频,并将其发送到识别API。当我在音频流前面添加WAV头时,它会工作几秒钟 调试表明,识别api读取表单流的速度比音频源(16k samplerate,16位,mono)填充的速度快 所以我的问题是:有没有一种方法可以将recognizeapi用于实时(连续)音频流 我知道有一个麦克风客户端的例子,但它只适用于麦克风,我需要它用于不同