Ios AudioKit创建用于处理麦克风信号的自定义节点

Ios AudioKit创建用于处理麦克风信号的自定义节点,ios,swift,audiokit,Ios,Swift,Audiokit,我想创建一个新的节点,它的工作方式与FFT非常相似,也就是说,它应该从麦克风节点获取一个数据缓冲区(比如32ms或10ms的数据),然后输出一个充满输入数据变异版本的缓冲区 如何使用AudioKit实现这一点?在固定长度的音频帧上运行的新DSP节点可以单独在SWIFT中创建,还是需要在C++ ++中实现一个“AudioKIT/扩展核心”节点?

我想创建一个新的节点,它的工作方式与FFT非常相似,也就是说,它应该从麦克风节点获取一个数据缓冲区(比如32ms或10ms的数据),然后输出一个充满输入数据变异版本的缓冲区

如何使用AudioKit实现这一点?在固定长度的音频帧上运行的新DSP节点可以单独在SWIFT中创建,还是需要在C++ ++中实现一个“AudioKIT/扩展核心”节点?