Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/maven/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
 Video_IT技术博客_编程技术问答 - 「Fatal编程技术网」

Video MPEG的比特率是多少?

我希望MPEG编码器为160x120“ok quality”网络摄像头流生成的比特率(大约)是多少 编码需要多少CPU?解码 有没有更好的编码格式?(就比特率或CPU而言)256kbps对于MPEG2中的QSIF(160x120,25fps)就足够了 任何现代的CPU(因为pentiumiv)都可以对其进行实时编码和解码 有一些硬件解决方案(如Compro-VideoMateH900和E800系列),成本约为100$,每个PC最多可安装8个板 使用它们,您可以一次获得8全尺寸流,更不用说QSIF

Video 如何使用gstreamer显示avi视频?

我想写一个目标跟踪程序,需要播放跟踪结果。由于gstreamer是一个很好的多媒体框架,我想在我的演示程序中使用它。但我不知道如何实现视频显示的细节。有人能帮忙吗 Avidemux插件可以将音频和视频部分从avi文件中分离出来,但是接下来该怎么做呢 如果我打开一个未压缩的avi文件,如果我直接将avidemux插件的输出板链接到视频接收器,它会工作吗 顺便问一下,哪个视频接收器在效率方面更好? 我查阅了插件参考,发现了很多视频接收器:glimagesink、osxvideosink、sdlvid

Video 基于hadoop的图像处理

如何在hadoop中读取视频帧?要在hadoop中处理特殊的文件格式(如视频),您必须编写一个自定义的InputFormat和RecordReader,它了解如何将视频文件转换为拆分(InputFormat),然后将拆分读取为值(RecordReader)。这是一项非常重要的任务,需要一些Hadoop如何处理数据拆分的中间知识。我强烈推荐Tom White的Hadoop,这是O'Reilly的权威指南书,也推荐其上的视频。(完全披露:我为Cloudera工作。) 请记住,视频格式通常是压缩的,这

Video VirtualDub-如何保持以前的视频压缩率?

我需要简单地将大的(~1400mb)文件分割成100mb的视频文件,并具有相同的质量(压缩率)。我需要在短时间内完成它,这样VirtualDub就不会使用任何压缩操作,而只是将视频分割成小视频。正确的方法是什么?有其他的免费软件可以做到这一点吗?使用VirtualDub可以尝试以下方法: 打开视频 视频=>直接流拷贝 音频=>直接流拷贝 文件=>保存分段AVI 文件段大小限制(MB)=>100 单击保存

Video 如何在magento CMS中添加.flv视频?

当我在magento中使用CMS添加.flv媒体时,它会在flash播放器上显示白色空白屏幕作为选项。 我正在使用1.4.0.1版本的magento 如何在magento的静态页面上添加flash视频。magento中的CMS不包括视频播放器,您需要在其位置提供SWF flash对象。有一个有限的选择扩展提供视频,我从来没有留下足够的印象,任何建议他们 当我需要使用HTML按钮时,我可以粘贴Youtube上的嵌入代码或我自己选择的播放器,比如,这意味着我需要了解一点。Magento中的CMS不包

Video 使用freeswitch的xmpp sip网关视频呼叫

我试图在SIP和XMPP域之间建立一个网关。我有一个带有FreeSWITCH和OpenFire的环境(FreeSWITCH在中注册为组件) 两个SIP用户之间的视频呼叫可以工作,但我无法在SIP和XMPP客户端(连接到OF)之间建立视频呼叫 您是否有使用XMPP-SIP网关的经验?我应该怎么做才能启用这样的调用?您应该尝试了解您使用的FreeSWITCH模块和XMPP服务器是否支持相同版本的。这将是一个棘手的问题,因为叮当声仍在起草中,而且实现可能是独特的 如果启用FreeSWITCH详细调试,

Video 在哪里可以找到不同分辨率的视频下载

我正在寻找一个视频数据库(不确定是否有这样的事情…),在那里我可以搜索视频,并根据它们的分辨率、长度和其他技术属性下载它们 我问这个问题的原因是,我想在不同类型的数据上测试一些计算机视觉算法。我会围绕一个(或可能几个)选定的视频编写一个脚本,并使用ffmpeg将它们转换为各种分辨率、比特率、帧速率和格式,以形成测试数据集 大致如下: ffmpeg-i source.avi-vcodec h263-b 200000-r 25-s 240x160 test.mov 关于ffmpeg和MPEG的完整信

Video ffmpeg:编码视频时如何循环音频?

我正在尝试用mp3对视频进行编码,并在视频流仍在运行时使音频流循环。视频蒸汽优先 我还没有看到ffmpeg中的命令专门允许这样做。有人有想法吗?我认为ffmpeg不支持此功能。据我所知,在将音频叠加到视频上之前,您必须在ffmpeg之外的新mp3文件中生成音频循环。我认为ffmpeg不支持此功能。据我所知,在将音频叠加到视频上之前,您必须在ffmpeg之外的新mp3文件中生成音频循环。重复问题:使用ffmpeg添加重复的背景音频重复问题:使用ffmpeg添加重复的背景音频

Video 如何在ffmpeg中获得音频曲目分配

有没有办法在ffmpeg中获得音频曲目分配?例如,如果您在QuickTime中,则可以查看信息(命令-I),并查看轨迹指定。它看起来像这样: Apple ProRes 422 (HQ), 1,920 x 1,080 Linear PCM, 24 bit little-endian signed integer, 48000 Hz, **Left** Linear PCM, 24 bit little-endian signed integer, 48000 Hz, **Right** Linea

Video 如何在几乎没有信息的情况下解码音频/视频比特流

我对视频/音频格式、容器和协议一无所知。然而,我必须弄清楚如何解码包含音频和视频的比特流。我不知道所使用的传输协议、容器格式或编解码器——但我能够推断出一些事情: 这不是RTP 它在端口443上通过UDP 音频和视频都是数据报 音频数据报有效负载的长度总是76字节,每秒大约有42字节 视频数据报有效负载最大为536字节,平均约为500字节,每秒约有62字节 我应该如何开始解码呢?您是否尝试过保存一个大数据块并用VLC或FFMPEG解码播放它?您是否尝试过保存一个大数据块并用VLC或FFMPE

Video 处理-从kinect数据导出电影或图像序列

我正试图找到最快的方法来导出PNG序列或带有处理的电影。我正在捕获Kinect数据,目前,在每次绘制调用中,我都使用: saveFrame("output/fames####.png"); 但这太慢了。我能做什么更快的 我正在使用simple openni作为kinect提要。处理/编码一帧需要多长时间(以及您可以接受的时间)?您可以尝试缓冲数据,并让固定数量的工作线程异步处理数据。否则,您将不得不求助于捕获视频,因为这样,安装的编解码器可以使用硬件加速/基于CPU的优化编码 编辑:要吸收编码

Video 如何嵌入实时视频连接-应用程序拒绝连接失败

我尝试了多种方法来获得正确的路径,以将此实时流媒体视频嵌入此url:“http://www.turbotv.in/mazhavil-manorama-live/“访问我的网站,但无法访问。 JW播放器说“连接失败:应用程序拒绝连接” 现在我需要有人谁知道这一点,以找出正确的嵌入代码出这个网站 ,这样我就可以将实时视频嵌入我的网站 现在需要一个早期的解决方案。请尽早回复。该站点上JWPlayer播放的URL作为参数提供给HTML中的JWPlayer嵌入代码: <param name="fla

Video 实时流:存储、转码、重新流

我目前正在从事一个项目,其中我有以下关于视频流的用例: 1) receive live video stream (mkv container would be prefered) 2) store this stream (on cloud storage) 3) optionally transcode the stream into mp4/etc. 4) optionally store the transcoded stream (on cloud storage) 5) re-tra

来自youtube的Stagevideo流

是否可以将视频从Youtube流式传输到stagevideo实例,即不将其嵌入stageWebView实例。我已经完成了。你看到了什么问题?我没有看到任何问题,我还没有实现。我是在知道这是否可能(你们已经证实了这是可能的)以及所涉及的过程的信息之后。例如,我是否需要注册youtube API系统,或者是否通过查看浏览器请求等获得视频的详细信息?感谢您提供上述信息:)

Video 如何使用ffmpeg创建具有图像和不同时间间隔的视频

这似乎是重复的: 但它不是重复的,因为上面问题的作者框出了错误的标题,因为图像显示的时间间隔是固定的 我想做的是 图1:5秒 图2-5:10秒 图6:4秒 请让我知道如何使用ffmpeg实现这一点。我试着用谷歌搜索,但并没有找到这样的结果。你们可以选择制作具有一定长度的单独视频,并最终将它们连接在一起吗ffmpeg-i“concat:file1.yuv | file2.yuv”-f-c copy out.xxx几个小时前,我遇到了同样的想法。我正在努力。一旦我测试它真的有效,我会接受它作为一个解

Video 在x86体系结构上写入车载视频存储器?

我想通过直接写入车载视频硬件来测试我的真实硬件 我该怎么做 这是我自己的操作系统项目,它必须直接用于我的板载图形,而不是任何nVidia卡或诸如此类的卡。您可以从地址开始直接写入EGA/VGA标准化的内存地址 A000:0000 模式X允许在VGA兼容硬件上使用比VGA标准支持的分辨率稍高的分辨率 如果BIOS支持VESA,则可以使用VESA BIOS调用来设置扩展视频模式 这里有一个关于VESA编程的详细介绍(即使是一个摘要也太广泛,无法包含在这里的答案中),它提供了使用VESA模式开始

Video FFmpeg'-bframebias';选择权消失了?

最近我将ffmpeg更新为1.1版,当我运行包含bframebias的命令时,它显示了一个错误: Unrecognized option 'bframebias'. Error splitting the argument list: Option not found 这个命令过去工作正常。那么选项bframebias被删除,还是被另一个选项替换 C:\Users\Raymond\Downloads\ffmpeg-1.1-win32-static\bin>ffmpeg -i C:\Use

Video BIOS int 10h服务0和EGA模式

我花了很多时间试图找出当调用BIOS INT 10、服务0来设置视频模式时会发生什么。是否可以使用EGA端口手动执行这些操作 我找到了来自不同来源的文档,但没有找到只设置特定模式的文档。我开始意识到“视频模式”不仅仅是一个寄存器值,它是EGA中的一系列设置 要明确的是,我只在DOSBox和QEMU下使用文本模式(0、1、2、3和7)进行练习。在web上查找Tauron VGA实用程序。软件包中的代码仅使用视频寄存器而不使用任何BIOS功能来设置各种视频模式(文本和图形)。这些模式中的大多数似乎在

Video 如何从文本(字幕、字幕、标题序列等)生成视频脚本?

我需要生成一个标题序列,以及学分等,为成千上万的视频。对于每一个视频,我可以并且将有一个文件,以任何适当的格式描述开头和结尾序列所需的文本,以及每页文本应显示的长度 有哪些软件可用于此目的?它需要可编写脚本/自动执行,因为我有数千个视频要执行此操作。我相信您希望呈现最终视频(包括文本、标题、标题等)。在这种情况下,您可以看到After Effects脚本。是演示AE中脚本基础知识的视频

Video 奥格。页面上有多个视频

如何为一个页面上放置的多个视频添加OG标记?我需要一个例子 我为1个视频添加了标记,但不知道如何为2个或更多视频添加标记。只要根据需要多次添加带有必要参数的视频标记即可 例如 像这样的标记 <meta property="og:video" content="http://example.com/movie.swf" /> <meta property="og:video:secure_url" content="https://secure.e

Video 如何使用ffmpeg库同步音频和视频?

坚持用C编写一个非常基本的媒体播放器,使用SDL和ffmpeg库。最初,按照page中的理论了解整个程序和库的使用情况。在从头开始编写代码之后,多亏了那个教程和许多其他资源,最后我使用最新的ffmpeg和SDL(2.0)库完成了代码的编写。但是我的代码缺少一个合适的同步机制(实际上它缺少一个同步机制!) 我仍然不清楚如何将音频和视频同步在一起,因为链接中提供的理论只是部分正确(至少在使用最新开发库时是如此)。 例如,第页中的一句话如下: 但是,ffmpeg会对数据包进行重新排序,以便avcode

Video Zencoder:将两个视频文件合并并编码为一个

我很难找到关于如何使用Zencoder合并视频的文档。以下是我想做的: 将视频上载到Zencoder,以便使用其api进行编码(完成) Zencoder将我的两秒钟品牌介绍视频合并到上传视频的开头,并将它们编码为一个文件 Zencoder将新视频发送到我的youtube帐户 Zencoder是否可以执行步骤2和3。如果是的话,你能链接或解释一下吗。如果没有,欢迎提供建设性反馈 谢谢 根据您的频道,您可以通过两种方式获得第三名。如果您是YouTube合作伙伴,您可以访问一个SFTP或Aspera帐

Video fedora 20中的视频播放问题

昨晚我安装了fedora release 20。但是我不能播放任何视频。如果我在播放视频文件,比如说VLC。音频正常。只有视频没有播放 没有图片,只有声音 我试过安装, vlc smplayer 所有gstreamer包 似乎没有一个起作用。我想没有与图形卡相关的问题。因为所有的播放器都明确地大声说——找不到编解码器 只有我一个人在这里吗??还有其他人面临这个问题吗? 提前感谢。关闭selinux,然后重试。 selinux阻止了插件。我也遇到了同样的问题 通过将VLC首选项中“视频设置”下的输

Video 将视频剪辑到最后10秒

因此,我正在寻找一种方法,将视频文件剪切到文件的最后10秒。通常我会使用FFMPEG或mencoder,但情况是每次剪切时,要剪切的文件的大小都会不同。所以我用ffmpeg找到了一些关于一般持续时间的东西,但问题是我需要持续时间是秒,而不是00:00:00,这样我就可以用var-10表示-ss了 我不知道我是否解释得足够好,但简而言之: 每次运行不同长度的视频时,只需在新文件中保存最后10秒。 需要一些轻资源,但仍然很快 提前感谢所有回答问题的人 这很容易,但不是很容易,当然也不是很快。 一般来

Video Windows 10物联网RTSP客户端

我刚买了一个覆盆子Pi2并安装了Windows IoT。我想在MediaElement上显示一个简单的RTSP流,但它似乎不受支持。有人知道如何使它工作吗?这里也有同样的问题/

Video 这两个FFMPEG命令之间有区别吗?

如果您有一个1:30小时的视频,并且您希望在不重新编码的情况下剪切其中的一部分,您可以使用FFMPEG 比如说,, 要从原始视频中剪切30分钟的视频,从15分钟30秒开始,命令如下: FFMPEG-i“C:\Input.mp4”-vcodec副本-acodec副本-ss 00:15:30.000-t 00:30:00.000“C:\Output.mp4” 但这也应该做到: FFMPEG-i“C:\Input.mp4”-ss 00:15:30.000-编解码器副本-t 00:30:00.000“C

&引用;player.textTracks未定义";使用video.js vtt缩略图

我正在尝试使用video.js插件,但无论是在我的网站上还是在演示中,我总是会遇到以下错误: TypeError:player.textTracks(…)未定义 我使用的是5.4.4,我的代码如下所示: <script src="/videojs/video.js"></script> <link href="/videojs/default.css" rel="stylesheet"> <script src="/videojs/videojs.thu

Video 如何使用API将大型视频上传到picasa

我正在尝试将大视频文件上传到picasa,但尚未成功。 我知道Picasa有一个局限性: 但不知何故,其他电影网站仍然可以将高清视频上传到picasa。我认为他们是用脚本来实现的,他们不能自己上传上千部电影。 有人有线索做这项工作吗

Video 如何在我自己的应用程序中显示Vimeo视频

我有一个适用于Android和iPhone的应用程序,我们希望创建一个包含一些视频的页面,供用户查看(说明)。这些视频都在Vimeo上(你可以看到) 我知道我无法获取“真实”媒体文件的url,因此无法使用控件。我尝试设置一个简单的,以类似于我上面提到的网页上的方式显示视频。这在安卓系统上似乎是可行的,但在iPhone上却没有。。。这是一段代码: <View class="formRow"> <WebView html="<html><b

Video FFMpeg-向已包含声音的视频添加声音

这里是我拥有的:input1.avi——包含声音的视频。input2.avi-不包含声音的视频。music.mp3-音频文件 我想将背景音乐music.mp3文件添加到视频中 C:\input1.avi-ic:\music.mp3-shortest-C:v copy-C:a copy C:\output1.avi 然后output1.avi与input1相同-有声音但没有背景音乐music.mp3的电影 当我尝试使用没有声音的其他文件视频时: C:\input2.avi-ic:\music.mp

Video -ffmpeg中的ss导致黑色帧

我使用ffmpeg将视频剪辑成剪辑。通过此命令: ffmpeg -ss 00:00:00 -i video.mp4 -to 00:01:00 -c copy cut.mp4 ffmpeg -i video.mp4 -ss 00:00:00 -to 00:01:00 -c copy cut.mp4 Ffmpeg必须在关键帧处剪切,因此,当我将每个剪辑连接回整个视频时,在每个剪辑的开头都有一些重复的帧。然后我找到了这个命令: ffmpeg -ss 00:00:00 -i video.mp4 -t

如何在v4l2中为/dev/video0强制执行低FPS?

我在Debian Jessie(3.4和4.7内核)下运行2个飞利浦SPC900NC网络摄像头。如果FPS可以降低到10 FPS甚至5 FPS,那么cam在光线不足的情况下表现出色。这可以很好地工作,例如通过以下方式使用ffmpeg录制视频: ffmpeg -f v4l2 -framerate 5 -video_size 640x480 -i /dev/video0 test.mp4 但是有了像Motion和ZoneMinder这样的监视工具,cam总是默认为15FPS,与我在这些程序中设置的

Video 异步MFT未发送MFT输出事件(英特尔硬件MJPEG解码器MFT)

我正在使用MediaFoundation SourceReader技术开发USB摄像头流式桌面应用程序。该相机支持USB3.0,1080p MJPG视频格式分辨率为60fps 我使用软件MJPEG解码器MFT将MJPG转换为YUY2帧,然后转换为RGB32帧在窗口上绘制。当使用这个软件解码器时,我能够在窗口上只渲染30fps,而不是60fps。我在这个网站上发布了一个问题,并得到了一些使用Intel硬件MJPEG解码器MFT解决帧丢失问题的建议 为了使用这个硬件MJPEG解码器,我处理了异步MF

Video 自动为视频选择缩略图

我们都听说YouTube使用深度学习为用户视频选择具有代表性的缩略图。但有人在tensorflow上成功试用过吗 我确实找到了那些声称能做到这一点的人,但对结果印象不深。实际上,我使用ffmpeg提取关键帧,然后计算颜色分布来选择“最佳”图像,得到了更好的结果 但是我很想知道是否有人使用更“智能”的算法做得更好。我想向OP说明,这个答案并不代表对方法的正式描述,以便以直观的方式描述预期的方法 假设一个视频由n个帧组成,每个帧都可以表示为一个3D张量(高度、宽度、通道)。可以使用卷积神经网络(CN

Video 在ffmpeg中使用vstack和hstack将多个视频输入到视频网格

我试图为ffmpeg找到一个工作示例,将4个分辨率不同的视频(2x2堆栈)和9个分辨率不同的视频(3x3堆栈)组合在一起 对于2x2示例,我目前正在使用文档示例,但它仅在所有视频的分辨率相同时才起作用。参见命令 ffmpeg-i top_l.mp4-i top_r.mp4-i bottom_l.mp4-i bottom_r.mp4-i audio.mp4\ -过滤复合物“[0:v][1:v]hstack[t];[2:v][3:v]hstack[b];[t][b]vstack[v]”\ -映射“[

Video 将带有FFMPEG的视频转换为PowerPoint 2016兼容的视频格式

我正在尝试将大量视频转换为Windows 7系统上PowerPoint 2013/2016本机支持的视频格式 微软在其网站上推荐使用h264和aac的mp4 在PowerPoint 2013及更高版本以及PowerPoint 2016 for Mac中,为了获得最佳的视频播放体验,我们建议您使用使用H.264视频(也称为MPEG-4 AVC)和AAC音频编码的.mp4文件。在PowerPoint 2010中,我们建议您使用.wmv文件 我们建议使用AAC音频编码的.m4a文件。在PowerPo

Video 从视频中获取帧内帧

首先,让我先说一句,我必须处理大量的视频,每一个视频哪怕减少1秒钟都是非常重要的 我试图提取视频中所有帧内帧的位置 FFProbe可以工作,但速度惊人地慢 FFMpeg的工作速度要快得多,但仍然相当慢 所以,我的问题是,是否有一个lib,我可以在其中执行类似以下伪代码的操作: var frame = first_frame; do { if (frame.type == intra_frame) log(frame.time); frame = frame.next; } whi

Video 如何使用、电子和网页包加载本地文件?

我正在开发一个电子视频播放器。我希望能够从文件系统中选择一个视频文件并播放它。路径可能看起来像win的C://Users/../…。和OSX的/Users/../../../。因此,问题是Chrome无法使用文件://协议,如果没有该协议,它将尝试从当前主机加载它。那么,有没有一种方法可以使用electron或webpack从操作系统文件系统加载视频?如果满足您的需要,您可以使用以下方法让用户选择视频: 这在chrome上起作用 这个答案中有一个很好的例子:您是否尝试使用不带文件前缀的路径:

Video 如何在windows中删除几个视频文件的前15秒和最后10秒?

我有很多小的视频讲座,但第一秒和最后几秒是开场和结尾的学分,我不想保留。此外,它破坏了连续性 所以我想要的是删除所有视频文件的前15秒和最后10秒,然后合并它们 有人能推荐一种方法或软件吗? -ss位置(输入/输出) 可以删除前15秒:-ss“0:00:15”或-ss 15 -定位(输入/输出) 从pos到pos -t持续时间(输入/输出) 来自具有dur的pos -位置(输入) -sseof-10:获得最后10秒 但没有-toeof位置 我认为它可以通过ffprobe“infle”2>&1

Video 如何自动播放嵌入式谷歌硬盘视频?

我找到了如何在给定时间启动google drive视频,但没有找到如何自动播放视频。有人能帮忙吗? 更一般地说,我想知道所有可用的选项,但我找不到文档。如果您使用HTML5编码,那么这应该会有所帮助 <video controls autoplay> <source src="https://source" type="video/mp4"> Browser does not support the video tag. </video> 浏览器不

Video FFMPEG:获取视频中每个帧对应的系统时间

我目前正在Windows 10系统上使用以下命令录制屏幕 ffmpeg.exe -loglevel quiet -f gdigrab -framerate 30 -i desktop -vf mpdecimate,setpts=N/FRAME_RATE/TB -vcodec libx264 -pix_fmt yuv420p -preset slow -crf 0 -threads 0 nodups.mkv 如果我录制了5分钟的视频,其中4分钟是空闲的。最终获得的视频只有1分钟。我想知道这个1分

Video ffmpeg-使用参考时间码将帧转换为视频

我有一个具有可变帧速率的视频,我使用-vsync passthrough将其解码为单个帧,以避免重复/丢失帧。在使用另一个应用程序处理这些帧之后,我想再次将它们编码为mp4视频,该视频具有与原始视频完全相同的时间戳 我的想法是输入帧和原始视频,并使用后者的时间码。这可能吗 这是我目前的做法: ffmpeg -i input/%d.jpg -vsync 0 -i input.mov \ -filter_complex '[0]setpts=PTS[vid1];[vid1]pad=iw*2

Video 以正确的比例嵌入vimeo

我有三个vimeo剪辑嵌入在我从这里得到的一个列布局中,我希望它们都具有相同的高度,这就是我如何将其放入嵌入代码本身的方式。似乎布局代码中的某些内容正在覆盖中间的一个,因此它的边框大小与其他两个相同。有什么我可以添加或删除的css,使他们都是相同的高度?中间的视频应该比其他两个正方形的视频宽 </body> </html> <!-- /wp:html -->  </a></span></p> <width=220%

Video 捕获GoPro视频,允许视频的实时流/回放

我有一个项目,我想使用一个GoPro,连接到一个树莓圆周率。将视频存储在Pi上,允许与Pi的WiFi连接以查看实时视频,并在视频仍在录制时倒带以观看以前的视频 可能正在查看Web应用程序以查看/回放视频源 我只是想了解一下我如何/是否可以着手这项工作

Video 如何连接ffmpeg中具有不同属性的视频?

我正在尝试合并一些视频,但时间戳错误 我试图让它们在相同的尺寸、帧速率、采样率下都相等,并且在没有音轨的情况下添加一个音轨 ffmpeg -i input1.mp4 -y -i audio1.mp3 -c:v copy -c:a aac -shortest output1.mp4 ffmpeg -i input2.mp4 -y -i audio2.mp3 -c:v copy -c:a aac -shortest output2.mp4 ffmpeg -y -safe 0 -f concat -i

Video ffmpeg;在一个渲染中运行2个缩放命令

我想在下面的单个视频的单个渲染中输出2个不同的缩放命令。我该怎么做 ffmpeg -y -i input.mp4 -vf "zoompan=z='if(lte(mod(time,5),3),2,1.05)':d=1:x=iw/3-(iw/zoom/2):y=ih/3-(ih/zoom/2):fps=29.97" output.mp4 ffmpeg-y-i input.mp4-vf“zoompan=z='if(lte(mod(time,10),3),2,1.05):d=1:x

Video H.263手刹视频编解码器

对于一些设备(较旧的Android手机),我需要带基带H.263的MP4 手刹只有H.264、MPEG-2和MPEG-4的编解码器选项 使用H.263和手刹有什么诀窍吗?或者你通常是如何处理这个任务的?我在stackexchange中阅读了很多线程,每个人都在使用handbrake,但我找不到正确的编解码器。handbrake利用了几个灵活的开源库,提供了一个非常好的可用前端。然而,它只暴露了大多数人关心的最常见的特性。正如您所发现的,H.263并不是当今许多人关心的功能之一 好消息是,底层代码

Video OpenCV保存深度和RGB流

我想使用OpenCV来保存深度数据和rgb流。我知道使用OpenNI(.oni)也可以,但我只想使用OpenCV。例如,是否可以将每个帧的深度数据写入.xml文件,将rgb流写入.png文件。然后用imread读回.xml和.png文件,例如,为了让深度贴图和rgb流作为视频序列再次连接起来?或者您是否有更好的解决方案使用OpenCV从kinect数据生成深度+rgb视频 我会非常感谢你的想法或代码片段。谢谢 Opencv有一个内置的openNI包装器:如果完全拒绝openNI,还可以使用lib

Video 来自静态图像和音频的ffmpeg实时流

我正在尝试使用静态图像和音频文件通过ffmpeg实现livestream。ffmpeg命令如下所示 ffmpeg-re-loop 1-f image2-i'/tmp/11.jpg'-f lavfi-i amovie=/tmp/5117.mp3:loop=999-video_size 600x480-c:v libx264-x264参数keyint=60-bufsize 500k-c:aac-ar 44100-b:a 128k-r30-g60-pix_fmt yuv420p-f flv“rtmp:

  1    2   3   4   5   6  ... 下一页 最后一页 共 116 页