如何使用JavaScript将音频从MediaStreamAudioSourceNode保存到音频缓冲区?

如何使用JavaScript将音频从MediaStreamAudioSourceNode保存到音频缓冲区?,javascript,google-chrome,audio-streaming,webrtc,web-audio-api,Javascript,Google Chrome,Audio Streaming,Webrtc,Web Audio Api,刚开始使用音频,我正在尝试保存麦克风捕获的音频。以下是我目前掌握的情况: record = function() { navigator.webkitGetUserMedia({ audio: true }, onStream, onError); }; onStream = function(stream) { var microphone = audioContext.createMediaStreamSource(stream); // save audio fr

刚开始使用音频,我正在尝试保存麦克风捕获的音频。以下是我目前掌握的情况:

record = function() {
  navigator.webkitGetUserMedia({
    audio: true
  }, onStream, onError);
};

onStream = function(stream) {
  var microphone = audioContext.createMediaStreamSource(stream);
  // save audio from microphone to an AudioBuffer 
};

当数据流进入时,必须有某种方式附加到音频缓冲区。任何帮助都将不胜感激

是的。退房超级容易使用。

我们如何使用下面的答案通过binaryjs发送arraybuffer?