WebRTC混合本地和远程音频流并进行录制

标签 webrtc web-audio-api

到目前为止,我已经找到了一种仅使用MediaRecorder API来记录本地或远程记录的方法,但是是否可以混合并记录这两个流并得到一个Blob?

请仅注意其音频流,并且我不想在服务器端进行混音/录制。

我有一个RTCPeerConnection作为pc

var local_stream = pc.getLocalStreams()[0];
var remote_stream = pc.getRemoteStreams()[0];
var audioChunks = [];
var rec = new MediaRecorder(local_stream);
rec.ondataavailable = e => {
    audioChunks.push(e.data);
    if (rec.state == "inactive") 
        // Play audio using new blob
}
rec.start();

甚至我尝试在MediaStream API中添加多个轨道,但它仍然只提供第一个轨道音频。任何帮助或见解将不胜感激!

最佳答案

WebAudio API可以为您混合。如果您想将所有音轨记录在audioTracks数组中,请考虑以下代码:

const ac = new AudioContext();

// WebAudio MediaStream sources only use the first track.
const sources = audioTracks.map(t => ac.createMediaStreamSource(new MediaStream([t])));

// The destination will output one track of mixed audio.
const dest = ac.createMediaStreamDestination();

// Mixing
sources.forEach(s => s.connect(dest));

// Record 10s of mixed audio as an example
const recorder = new MediaRecorder(dest.stream);
recorder.start();
recorder.ondataavailable = e => console.log("Got data", e.data);
recorder.onstop = () => console.log("stopped");
setTimeout(() => recorder.stop(), 10000);

关于WebRTC混合本地和远程音频流并进行录制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42138545/

相关文章:

ios - 如何在 AppRTC iOS 示例中将音频重定向到扬声器?

javascript - 如何使用 js-mp3 解码 MP3 并在 AudioContext 中播放?

html5-audio - 在 getUserMedia 成功回调中获取原始音频

javascript - AudioContext.currentTime + 可变时间

html5-video - 如何获得视频元素的当前响度级别

javascript - 使用 navigator.mediaDevices.getUserMedia 时出现类型错误

javascript - 仅媒体流录制在 iPhone Safari 上不起作用。我需要特别考虑什么吗?

javascript - RTCPeerConnection 是否适用于 Microsoft Edge?

javascript - 在 webrtc 视频聊天中检测到对方的浏览器已关闭

javascript - 分析 WAV 文件的速度比播放速度快