呈现音频流(WASAPI/WINAPI)

呈现音频流(WASAPI/WINAPI),winapi,audio,audio-streaming,wasapi,Winapi,Audio,Audio Streaming,Wasapi,我目前正在阅读MSDN的文档,以便将流渲染到音频渲染器。。 或者换句话说,播放从麦克风捕获的数据 BYTE data; UINT32 bufferframecount; DWORD flag; WAVEFORMATEX *pwfx; 这个例子提供了一个例子 我现在的问题是我不能真正理解项目流程。 目前,我有一个不同的类存储我从捕获过程中获得的以下参数。 当程序从麦克风捕获流式音频数据时,这些参数将不断被重新写入 BYTE data; UINT32 bufferframecount; DWOR

我目前正在阅读MSDN的文档,以便将流渲染到音频渲染器。。 或者换句话说,播放从麦克风捕获的数据

BYTE data;
UINT32 bufferframecount;
DWORD flag;
WAVEFORMATEX *pwfx;

这个例子提供了一个例子

我现在的问题是我不能真正理解项目流程。 目前,我有一个不同的类存储我从捕获过程中获得的以下参数。 当程序从麦克风捕获流式音频数据时,这些参数将不断被重新写入

BYTE data;
UINT32 bufferframecount;
DWORD flag;
WAVEFORMATEX *pwfx;
我的问题是,, loadData()函数实际上是如何工作的。 它是否应该从捕获过程中获取我正在编写的参数? 程序如何将数据发送到音频渲染器,并在我的扬声器中播放。

loadData()函数用于填充pData指向的音频。该示例对音频源进行了抽象,因此可以是从.wav文件到已捕获的麦克风音频的任何内容

因此,如果您试图从该示例构建,我将实现MyAudioSource类,并让它在调用loadData()时从文件中读取PCM或浮点采样。然后,如果您运行该程序,它应该将文件中的音频从扬声器中播放出来