Python:如何在音频文件中从人类语音中分离出噪声?
我有一个音频文件,其中我试图过滤掉噪音:Python:如何在音频文件中从人类语音中分离出噪声?,python,audio,scipy,signal-processing,librosa,Python,Audio,Scipy,Signal Processing,Librosa,我有一个音频文件,其中我试图过滤掉噪音: frequency, array = read('sample/OSR_us_000_0014_8k.wav') b, a = signal.butter(5, 1000/(frequency/2), btype='highpass') filteredSignal = signal.lfilter(b, a, newSound) 不过,这种高通滤波器似乎没有那么有效。有没有更好的方法来完成我想做的事情?此外,我更喜欢提取背景噪声。大多数可用的算法都会
frequency, array = read('sample/OSR_us_000_0014_8k.wav')
b, a = signal.butter(5, 1000/(frequency/2), btype='highpass')
filteredSignal = signal.lfilter(b, a, newSound)
不过,这种高通滤波器似乎没有那么有效。有没有更好的方法来完成我想做的事情?此外,我更喜欢提取背景噪声。大多数可用的算法都会过滤掉噪声,但我想将噪声作为一个numpy数组提取出来。Librosa具有声音分离功能。不过,不确定它是否可以与带有一些背景音频的录音一起使用
这种事情被称为源分离,过去用神经网络解决,但现在通常用神经网络解决。有关音乐的最新开源实现,请访问。我怀疑在演讲中也有类似的东西。你能把你的样本数据发布到某个地方并提供一个链接吗?