如何使用JavaScript将音频从MediaStreamAudioSourceNode保存到音频缓冲区?
刚开始使用音频,我正在尝试保存麦克风捕获的音频。以下是我目前掌握的情况:如何使用JavaScript将音频从MediaStreamAudioSourceNode保存到音频缓冲区?,javascript,google-chrome,audio-streaming,webrtc,web-audio-api,Javascript,Google Chrome,Audio Streaming,Webrtc,Web Audio Api,刚开始使用音频,我正在尝试保存麦克风捕获的音频。以下是我目前掌握的情况: record = function() { navigator.webkitGetUserMedia({ audio: true }, onStream, onError); }; onStream = function(stream) { var microphone = audioContext.createMediaStreamSource(stream); // save audio fr
record = function() {
navigator.webkitGetUserMedia({
audio: true
}, onStream, onError);
};
onStream = function(stream) {
var microphone = audioContext.createMediaStreamSource(stream);
// save audio from microphone to an AudioBuffer
};
当数据流进入时,必须有某种方式附加到音频缓冲区。任何帮助都将不胜感激 是的。退房超级容易使用。我们如何使用下面的答案通过binaryjs发送arraybuffer?