Audio 如何使用mkvmerge和外部时间代码强制A/V同步? 背景
我正在做一个项目,其中视频和音频是对MKV源文件的算法解释,我使用ffmpeg-ss和-t提取音频和视频的特定区域以分离文件。我在音频过程中使用视频中的场景更改(即视频场景更改中的音频更改),因此同步至关重要 音频为48khz,使用512个采样块。 视频是23.976fps(我也试过24) 我将场景更改的帧开始以累积块的形式存储在文件中:Audio 如何使用mkvmerge和外部时间代码强制A/V同步? 背景,audio,video,ffmpeg,video-encoding,mkv,Audio,Video,Ffmpeg,Video Encoding,Mkv,我正在做一个项目,其中视频和音频是对MKV源文件的算法解释,我使用ffmpeg-ss和-t提取音频和视频的特定区域以分离文件。我在音频过程中使用视频中的场景更改(即视频场景更改中的音频更改),因此同步至关重要 音频为48khz,使用512个采样块。 视频是23.976fps(我也试过24) 我将场景更改的帧开始以累积块的形式存储在文件中: blocksPerFrame = (48000 / 512) / 23.976 sceneOnsetBlock = sceneOnsetFrame*block
blocksPerFrame = (48000 / 512) / 23.976
sceneOnsetBlock = sceneOnsetFrame*blocksPerFrame
我在音频代码中使用这些块将与每个场景关联的样本作为一个组来处理
当我将音频和视频重新组合在一起时(目前使用ffmpeg在MKV容器中生成mp4(v)mp3(a)),音频和视频开始同步,但逐渐漂移,直到它结束约35秒。最糟糕的是,音频滞后是非线性的!所谓非线性,我的意思是,如果我根据时间滞后的位置绘制滞后,我不会得到一条线,而是你在下图中看到的)。由于这种非线性,我不能仅仅移动或缩放音频以适应视频。我无法找出音频延迟非线性增加的原因;我已经反复检查了我的数学
由于我知道场景更改的确切时间,我应该能够为mkvmerge生成“外部时间码”(来自上面的块),以完美地同步输出
子问题:
谢谢大家! 我最终在我的代码中解决了问题的原因,因此我永远不需要遵循上面的想法。在与mkvmerge作者的讨论中,我确定了以下答案: