基于Python的说话人识别系统
我正在尝试使用Python制作一个说话人识别系统(不是语音而是说话人)。我提取了列车音频文件和测试音频文件的基于Python的说话人识别系统,python,voice-recognition,mfcc,gmm,Python,Voice Recognition,Mfcc,Gmm,我正在尝试使用Python制作一个说话人识别系统(不是语音而是说话人)。我提取了列车音频文件和测试音频文件的mfcc特征,并为每个文件制作了gmm模型。我不知道如何比较模型来计算相似性分数,根据该分数我可以对系统进行编程以验证测试音频。我挣扎了4天才完成这件事。如果有人能帮忙,我会很高兴的。从问题中我可以理解,您描述的是 我已经找到了一个解决你问题的方法,使用改进的迭代维纳滤波器和多层感知器神经网络,可以将扬声器分成不同的通道 有趣的是,鸡尾酒会问题可以在ocative中的一行中解决:[W,s,
mfcc
特征,并为每个文件制作了gmm
模型。我不知道如何比较模型来计算相似性分数,根据该分数我可以对系统进行编程以验证测试音频。我挣扎了4天才完成这件事。如果有人能帮忙,我会很高兴的。从问题中我可以理解,您描述的是
我已经找到了一个解决你问题的方法,使用改进的迭代维纳滤波器和多层感知器神经网络,可以将扬声器分成不同的通道
有趣的是,鸡尾酒会问题可以在ocative中的一行中解决:[W,s,v]=svd((repmat(sum(x*x,1),size(x,1),1)。*x*x')代码>
你可以在上阅读更多关于它的信息。请提供更多细节并展示你的努力(如果有)。我将获取3个音频文件来模拟一个训练集(.gmm),然后再获取一个音频片段(测试片段),将其与训练模型进行比较,以计算可能的相似重复