用ffmpeg在webm传输流中生成时间戳

用ffmpeg在webm传输流中生成时间戳,ffmpeg,electron,webm,Ffmpeg,Electron,Webm,我正在将我的Electron应用程序的屏幕截图记录到一个文件中,如下所示: 它工作得很好,但文件是一个“传输流”。我可以在Chrome浏览器中播放,但不能调整时间滑块 建议使用ffmpeg对文件进行后期处理。我发现的最简单、直接的命令是: ffmpeg -fflags +genpts -i in.webm out.webm 我认为这只是生成时间戳。但是,out.webm文件比in.webm小15倍!我看质量没有任何变化。缺点是,处理时间与视频的持续时间大致相同 两个问题: 有什么方法可以加速这

我正在将我的Electron应用程序的屏幕截图记录到一个文件中,如下所示:

它工作得很好,但文件是一个“传输流”。我可以在Chrome浏览器中播放,但不能调整时间滑块

建议使用
ffmpeg
对文件进行后期处理。我发现的最简单、直接的命令是:

ffmpeg -fflags +genpts -i in.webm out.webm
我认为这只是生成时间戳。但是,
out.webm
文件比
in.webm
小15倍!我看质量没有任何变化。缺点是,处理时间与视频的持续时间大致相同

两个问题:

  • 有什么方法可以加速这个“时间戳”过程吗
  • 我可以录制一个已经小15倍的视频吗
  • 调用
    webkitGetUserMedia()
    时,我指定
    maxFrameRate:30

    下面是
    ffmpeg
    命令的输出:

    vlad$ ffmpeg -fflags +genpts -i in.webm out.webm
    ffmpeg version 4.3.2 Copyright (c) 2000-2021 the FFmpeg developers
      built with Apple clang version 12.0.0 (clang-1200.0.32.29)
      configuration: --prefix=/usr/local/Cellar/ffmpeg/4.3.2 --enable-shared --enable-pthreads --enable-version3 --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libdav1d --enable-libmp3lame --enable-libopus --enable-librav1e --enable-librubberband --enable-libsnappy --enable-libsrt --enable-libtesseract --enable-libtheora --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwebp --enable-libx264 --enable-libx265 --enable-libxml2 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-libsoxr --enable-libzmq --enable-libzimg --disable-libjack --disable-indev=jack --enable-videotoolbox
      libavutil      56. 51.100 / 56. 51.100
      libavcodec     58. 91.100 / 58. 91.100
      libavformat    58. 45.100 / 58. 45.100
      libavdevice    58. 10.100 / 58. 10.100
      libavfilter     7. 85.100 /  7. 85.100
      libavresample   4.  0.  0 /  4.  0.  0
      libswscale      5.  7.100 /  5.  7.100
      libswresample   3.  7.100 /  3.  7.100
      libpostproc    55.  7.100 / 55.  7.100
    Input #0, matroska,webm, from 'in.webm':
      Metadata:
        encoder         : Chrome
      Duration: N/A, start: 0.000000, bitrate: N/A
        Stream #0:0(eng): Video: vp9 (Profile 0), yuv420p(tv), 2560x1416, SAR 1:1 DAR 320:177, 1k tbr, 1k tbn, 1k tbc (default)
        Metadata:
          alpha_mode      : 1
    Stream mapping:
      Stream #0:0 -> #0:0 (vp9 (native) -> vp9 (libvpx-vp9))
    Press [q] to stop, [?] for help
    [libvpx-vp9 @ 0x7f85f2012600] v1.9.0
    [libvpx-vp9 @ 0x7f85f2012600] Neither bitrate nor constrained quality specified, using default CRF of 32
    Output #0, webm, to 'out.webm':
      Metadata:
        encoder         : Lavf58.45.100
        Stream #0:0(eng): Video: vp9 (libvpx-vp9), yuv420p, 2560x1416 [SAR 1:1 DAR 320:177], q=-1--1, 1k fps, 1k tbn, 1k tbc (default)
        Metadata:
          alpha_mode      : 1
          encoder         : Lavc58.91.100 libvpx-vp9
        Side data:
          cpb: bitrate max/min/avg: 0/0/0 buffer size: 0 vbv_delay: N/A
    frame=  209 fps=5.8 q=0.0 Lsize=     881kB time=00:00:17.81 bitrate= 405.0kbits/s speed=0.494x    
    video:879kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 0.231567%
    
    以下是
    ffprobe
    中两个文件的信息:

    vlad$ ffprobe in.webm
    ffprobe version 4.3.2 Copyright (c) 2007-2021 the FFmpeg developers
      built with Apple clang version 12.0.0 (clang-1200.0.32.29)
      configuration: --prefix=/usr/local/Cellar/ffmpeg/4.3.2 --enable-shared --enable-pthreads --enable-version3 --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-ffplay --enable-gnutls --enable-gpl --enable-libaom --enable-libbluray --enable-libdav1d --enable-libmp3lame --enable-libopus --enable-librav1e --enable-librubberband --enable-libsnappy --enable-libsrt --enable-libtesseract --enable-libtheora --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwebp --enable-libx264 --enable-libx265 --enable-libxml2 --enable-libxvid --enable-lzma --enable-libfontconfig --enable-libfreetype --enable-frei0r --enable-libass --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librtmp --enable-libspeex --enable-libsoxr --enable-libzmq --enable-libzimg --disable-libjack --disable-indev=jack --enable-videotoolbox
      libavutil      56. 51.100 / 56. 51.100
      libavcodec     58. 91.100 / 58. 91.100
      libavformat    58. 45.100 / 58. 45.100
      libavdevice    58. 10.100 / 58. 10.100
      libavfilter     7. 85.100 /  7. 85.100
      libavresample   4.  0.  0 /  4.  0.  0
      libswscale      5.  7.100 /  5.  7.100
      libswresample   3.  7.100 /  3.  7.100
      libpostproc    55.  7.100 / 55.  7.100
    Input #0, matroska,webm, from 'in.webm':
      Metadata:
        encoder         : Chrome
      Duration: N/A, start: 0.000000, bitrate: N/A
        Stream #0:0(eng): Video: vp9 (Profile 0), yuv420p(tv), 2560x1416, SAR 1:1 DAR 320:177, 1k tbr, 1k tbn, 1k tbc (default)
        Metadata:
          alpha_mode      : 1
    


    我敢肯定,您的FFmpeg处理并不是您想象的那样——使用命令行,特别是在没有某些显式开关的情况下,FFmpeg将自行对视频和音频进行转码,这就是为什么您的输出文件要小得多的原因——数据已被重新压缩,质量可能会下降

    如果您只想生成大多数玩家搜索所需的索引,并避免不需要的转码,以下命令行就足够了:

    ffmpeg -i <input-file> -codec copy <output-file>
    
    ffmpeg-i-编解码器副本
    
    请注意,请注意,如果没有额外的显式开关来指示它,FFmpeg将根据输出文件扩展名推断输出容器格式。我假设您的输入和输出都是WebM,所以您的案例中没有任何问题。但即使不是这样,将媒体重新混入另一种格式的容器也不一定会导致质量损失

    正如您可以从上面的命令行推测的那样,仅仅运行FFmpeg而没有任何与“生成帧时间索引”相关的显式开关,会导致它无论如何构建索引。无论是否进行代码转换,它都会这样做


    还有一些玩家,比如[现在被抛弃的],他们至少能够寻找一些传输流。我知道事实上,它可以寻找你的那种网络媒体。我不知道它实际上是如何进行搜索的确切细节,但如果我猜的话,我会说它只是从媒体中的某个适当位置(或最开始)对匹配搜索时间的帧进行线性搜索。很像在数据库表中查找一行,该行没有索引来帮助搜索谓词。

    用乔布斯的话来说:“它只工作”!非常感谢您的详细解释!也不花时间:)按照你所描述的,我不得不做出一些假设,所以我很高兴我的回答解决了你的问题。是的,FFmpeg需要做的相对简单的工作——遍历嵌入的媒体数据包来建立索引,而不必实际对轨道数据进行任何解码/编码——使得过程更快、更简单。
    ffmpeg -i <input-file> -codec copy <output-file>