用ffmpeg在webm传输流中生成时间戳
我正在将我的Electron应用程序的屏幕截图记录到一个文件中,如下所示: 它工作得很好,但文件是一个“传输流”。我可以在Chrome浏览器中播放,但不能调整时间滑块 建议使用用ffmpeg在webm传输流中生成时间戳,ffmpeg,electron,webm,Ffmpeg,Electron,Webm,我正在将我的Electron应用程序的屏幕截图记录到一个文件中,如下所示: 它工作得很好,但文件是一个“传输流”。我可以在Chrome浏览器中播放,但不能调整时间滑块 建议使用ffmpeg对文件进行后期处理。我发现的最简单、直接的命令是: ffmpeg -fflags +genpts -i in.webm out.webm 我认为这只是生成时间戳。但是,out.webm文件比in.webm小15倍!我看质量没有任何变化。缺点是,处理时间与视频的持续时间大致相同 两个问题: 有什么方法可以加速这
ffmpeg
对文件进行后期处理。我发现的最简单、直接的命令是:
ffmpeg -fflags +genpts -i in.webm out.webm
我认为这只是生成时间戳。但是,out.webm
文件比in.webm
小15倍!我看质量没有任何变化。缺点是,处理时间与视频的持续时间大致相同
两个问题:
webkitGetUserMedia()
时,我指定maxFrameRate:30
下面是ffmpeg
命令的输出:
vlad$ ffmpeg -fflags +genpts -i in.webm out.webm
ffmpeg version 4.3.2 Copyright (c) 2000-2021 the FFmpeg developers
built with Apple clang version 12.0.0 (clang-1200.0.32.29)
configuration: --prefix=/usr/local/Cellar/ffmpeg/4.3.2 --enable-shared --enable-pthreads --enable-version3 --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libdav1d --enable-libmp3lame --enable-libopus --enable-librav1e --enable-librubberband --enable-libsnappy --enable-libsrt --enable-libtesseract --enable-libtheora --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwebp --enable-libx264 --enable-libx265 --enable-libxml2 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-libsoxr --enable-libzmq --enable-libzimg --disable-libjack --disable-indev=jack --enable-videotoolbox
libavutil 56. 51.100 / 56. 51.100
libavcodec 58. 91.100 / 58. 91.100
libavformat 58. 45.100 / 58. 45.100
libavdevice 58. 10.100 / 58. 10.100
libavfilter 7. 85.100 / 7. 85.100
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 7.100 / 5. 7.100
libswresample 3. 7.100 / 3. 7.100
libpostproc 55. 7.100 / 55. 7.100
Input #0, matroska,webm, from 'in.webm':
Metadata:
encoder : Chrome
Duration: N/A, start: 0.000000, bitrate: N/A
Stream #0:0(eng): Video: vp9 (Profile 0), yuv420p(tv), 2560x1416, SAR 1:1 DAR 320:177, 1k tbr, 1k tbn, 1k tbc (default)
Metadata:
alpha_mode : 1
Stream mapping:
Stream #0:0 -> #0:0 (vp9 (native) -> vp9 (libvpx-vp9))
Press [q] to stop, [?] for help
[libvpx-vp9 @ 0x7f85f2012600] v1.9.0
[libvpx-vp9 @ 0x7f85f2012600] Neither bitrate nor constrained quality specified, using default CRF of 32
Output #0, webm, to 'out.webm':
Metadata:
encoder : Lavf58.45.100
Stream #0:0(eng): Video: vp9 (libvpx-vp9), yuv420p, 2560x1416 [SAR 1:1 DAR 320:177], q=-1--1, 1k fps, 1k tbn, 1k tbc (default)
Metadata:
alpha_mode : 1
encoder : Lavc58.91.100 libvpx-vp9
Side data:
cpb: bitrate max/min/avg: 0/0/0 buffer size: 0 vbv_delay: N/A
frame= 209 fps=5.8 q=0.0 Lsize= 881kB time=00:00:17.81 bitrate= 405.0kbits/s speed=0.494x
video:879kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 0.231567%
以下是ffprobe
中两个文件的信息:
vlad$ ffprobe in.webm
ffprobe version 4.3.2 Copyright (c) 2007-2021 the FFmpeg developers
built with Apple clang version 12.0.0 (clang-1200.0.32.29)
configuration: --prefix=/usr/local/Cellar/ffmpeg/4.3.2 --enable-shared --enable-pthreads --enable-version3 --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libdav1d --enable-libmp3lame --enable-libopus --enable-librav1e --enable-librubberband --enable-libsnappy --enable-libsrt --enable-libtesseract --enable-libtheora --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwebp --enable-libx264 --enable-libx265 --enable-libxml2 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-libsoxr --enable-libzmq --enable-libzimg --disable-libjack --disable-indev=jack --enable-videotoolbox
libavutil 56. 51.100 / 56. 51.100
libavcodec 58. 91.100 / 58. 91.100
libavformat 58. 45.100 / 58. 45.100
libavdevice 58. 10.100 / 58. 10.100
libavfilter 7. 85.100 / 7. 85.100
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 7.100 / 5. 7.100
libswresample 3. 7.100 / 3. 7.100
libpostproc 55. 7.100 / 55. 7.100
Input #0, matroska,webm, from 'in.webm':
Metadata:
encoder : Chrome
Duration: N/A, start: 0.000000, bitrate: N/A
Stream #0:0(eng): Video: vp9 (Profile 0), yuv420p(tv), 2560x1416, SAR 1:1 DAR 320:177, 1k tbr, 1k tbn, 1k tbc (default)
Metadata:
alpha_mode : 1
及
我敢肯定,您的FFmpeg处理并不是您想象的那样——使用命令行,特别是在没有某些显式开关的情况下,FFmpeg将自行对视频和音频进行转码,这就是为什么您的输出文件要小得多的原因——数据已被重新压缩,质量可能会下降 如果您只想生成大多数玩家搜索所需的索引,并避免不需要的转码,以下命令行就足够了:
ffmpeg -i <input-file> -codec copy <output-file>
ffmpeg-i-编解码器副本
请注意,请注意,如果没有额外的显式开关来指示它,FFmpeg将根据输出文件扩展名推断输出容器格式。我假设您的输入和输出都是WebM,所以您的案例中没有任何问题。但即使不是这样,将媒体重新混入另一种格式的容器也不一定会导致质量损失
正如您可以从上面的命令行推测的那样,仅仅运行FFmpeg而没有任何与“生成帧时间索引”相关的显式开关,会导致它无论如何构建索引。无论是否进行代码转换,它都会这样做
还有一些玩家,比如[现在被抛弃的],他们至少能够寻找一些传输流。我知道事实上,它可以寻找你的那种网络媒体。我不知道它实际上是如何进行搜索的确切细节,但如果我猜的话,我会说它只是从媒体中的某个适当位置(或最开始)对匹配搜索时间的帧进行线性搜索。很像在数据库表中查找一行,该行没有索引来帮助搜索谓词。用乔布斯的话来说:“它只工作”!非常感谢您的详细解释!也不花时间:)按照你所描述的,我不得不做出一些假设,所以我很高兴我的回答解决了你的问题。是的,FFmpeg需要做的相对简单的工作——遍历嵌入的媒体数据包来建立索引,而不必实际对轨道数据进行任何解码/编码——使得过程更快、更简单。
ffmpeg -i <input-file> -codec copy <output-file>