Ios 使用AudioKit从麦克风跟踪频率
创建跟踪麦克风音频的Swift iOS项目。目前正在使用AudioKit 3.0框架。我有以下代码在Xcode模拟器中工作,但当我在设备上运行它时,它似乎没有正确读取麦克风信号Ios 使用AudioKit从麦克风跟踪频率,ios,swift,frequency-analysis,Ios,Swift,Frequency Analysis,创建跟踪麦克风音频的Swift iOS项目。目前正在使用AudioKit 3.0框架。我有以下代码在Xcode模拟器中工作,但当我在设备上运行它时,它似乎没有正确读取麦克风信号 // Prepare Microphone let mic = AKMicrophone() // Connect Microphone to High Pass Filter let mixer = AKMixer(mic) let highPassFilter = AKHi
// Prepare Microphone
let mic = AKMicrophone()
// Connect Microphone to High Pass Filter
let mixer = AKMixer(mic)
let highPassFilter = AKHighPassFilter(mic)
// Set Parameters of Hi Pass filter
highPassFilter.cutoffFrequency = 7000 // Hz
highPassFilter.resonance = 0 // dB
let tracker = AKFrequencyTracker(highPassFilter, minimumFrequency: 7000, maximumFrequency: 8000)
highPassFilter.play()
audioKit.audioOutput = tracker
audioKit.start()
AKPlaygroundLoop(every: 0.1) {
let freq = tracker.frequency
print(freq)
}
我从录音包后面的开发人员那里得到了答案。AudioKit 3.0中有一个漏洞尚未在发行版中修复。去修理它。将AKManager.swift的第41行更改为AVAudioSessionCategoryPlayAndRecord,然后创建一个新框架以添加到项目中
这纠正了麦克风节点的问题。我从开发人员的音频套件中得到了答案。AudioKit 3.0中有一个漏洞尚未在发行版中修复。去修理它。将AKManager.swift的第41行更改为AVAudioSessionCategoryPlayAndRecord,然后创建一个新框架以添加到项目中
这纠正了麦克风节点的问题。我将此代码用于AudioKit 3,它工作正常:
let mic = AKMicrophone()
amplitudeTracker = AKAmplitudeTracker(mic)
AKSettings.audioInputEnabled = true
AudioKit.output = amplitudeTracker
AudioKit.start()
mic.start()
amplitudeTracker.start()
这是AkamplementTracker,但情况与您几乎相同。尝试AKSettings.audioInputEnabled=true
希望这能有所帮助。我将此代码与AudioKit 3配合使用,效果良好:
let mic = AKMicrophone()
amplitudeTracker = AKAmplitudeTracker(mic)
AKSettings.audioInputEnabled = true
AudioKit.output = amplitudeTracker
AudioKit.start()
mic.start()
amplitudeTracker.start()
这是AkamplementTracker,但情况与您几乎相同。尝试AKSettings.audioInputEnabled=true
希望这有帮助。您能澄清一下“似乎没有正确读取麦克风信号”我们发现您回答了自己的问题,这很好,可能对其他有相同问题的人也有帮助。然而,正如@john_ryan所说的,不清楚到底是什么错了。我鼓励您编辑原始问题和答案,以便明确问题所在。此链接可能会帮助您:您能否澄清“似乎没有正确读取麦克风信号”我们看到您回答了自己的问题,这很好,并且可能对其他有相同问题的人有所帮助。然而,正如@john_ryan所说的,不清楚到底是什么错了。我鼓励您编辑原始问题和答案,以便明确问题所在。此链接可能会帮助您: