我已经在基于oflaDemo的自定义应用程序中创建并启动了Red5服务器端流,方法如下:
serverStream = StreamUtils.createServerStream( app , "mystream" );
// repeats /streams/prometheus.flv from oflaDemo several times (20sec):
serverStream.addItem( SimplePlayItem.build( "prometheus" , 0 , 20
标签: Video
previewdailymotion-api
我有关于dailymotion的私人视频。我需要在我的网站上显示他们的预览图片
我不能使用嵌入API,因为它不适用于私人视频
有人找到了实现这一目标的方法吗
富豪们,
Mac。您确实可以使用数据API获取私人视频中所需的所有信息,但您需要进行身份验证
如果要使用dailymotion player播放视频,应请求其。您可以使用此id播放视频,但请注意,一旦您披露此私人id,您的视频将不再被视为私人视频
标签: Video
cross-browsermp4hevc
我目前正在研究在视频中添加HEVC支持的可行性,但Safari遇到了一个问题。以下是示例来源:
<video autobuffer="true" autoloop="" loop="" controls="">
<source src="film_WebM.webm" type="video/webm">
<source src="film_HEVC.mp4" type="video/mp4">
<source src="film
我正在尝试用ffmpeg压缩视频
我的操作系统:Ubuntu 16.04
我的ffmpeg版本(通过ffmpeg-version检索):
ffmpeg版本2.8.15-0ubuntu0.16.04.1版权所有(c)2000-2018 ffmpeg开发者
使用gcc 5.4.0(Ubuntu 5.4.0-6ubuntu1~16.04.10)20160609构建
仅供参考,有关视频的信息可通过以下方式检索:
ffprobe-show_streams-i“video.mp4”
我得到:
ffprobe
我有一个ogg vorbis视频。它在图腾和mplayer中表现良好。我想把它转换成一系列的图像,每帧一个图像。我可以使用以下命令在ffmpeg上执行此操作:
ffmpeg -i video.ogv -f image 2 video-frames-%08png
但是,这不适用于此视频。每一帧都是灰色的,好像有很多解码问题。由于它在图腾中工作,我怀疑gstreamer比ffmpeg能够更好地解码视频。是否有一个gstreamer命令可以接收ogg vorbis视频,然后创建一堆图像,每帧一个
我
标签: Video
Ipad
mpmovieplayercontrollerswitching
我正在尝试在iPadSDK3.2上创建一个基本的应用程序,它显示一个电影播放器,可以在不同的视频源之间切换。使用下面的代码在VOD之间切换没有任何问题。然而,如果我切换到实时流,然后返回到视频点播,视频播放器会不断暂停
我也尝试过在切换视频之前释放然后重新创建播放器,但这也有同样的问题。任何帮助都将不胜感激
(void)moviePlayerWithUrl:(NSURL*)url {
if( self.moviePlayer ) {
[self.moviePlayer setConte
我有php脚本,用户可以从那里上传视频文件。该文件可以是mpeg、flv和avi
我是否需要在flash player上为flv使用两个html播放器,在其他文件中使用第二个嵌入式MediaPlayer1
但是嵌入式代码将如何在基于mac/linux的客户端打开。是将mpeg转换为flv格式的唯一方法吗
html 5呢?如果你真的想在网页中播放MPEG(非MP4)或AVI,是的,你需要嵌入一个媒体播放器,以及由此产生的所有编解码器、兼容性和稳定性问题,这些问题导致人们改用Flash视频(以及最近
因此,让我稍微重新表述一下我的问题:
我正在寻找一种可能性,可以使用脚本从.mov或.mp4中提取所有帧
谢谢您的时间。您可以使用ffmpeg
ffmpeg-i test.mpeg-vframes 1 test%d.jpg中心片段到帧提取可以是ffmpeg,如中所述。
我想知道是否有视频标准支持在捕获/录制时嵌入时间码
我需要录制和播放多个视频流,同时保持同步。视频中不需要嵌入时间码,视频标题有足够的字段来帮助您解决这个问题
每个帧都有以下“时间戳”:
如果您有一个相对的起始点(可以存储在每首曲目的视频标题中),您可以跟踪每帧的显示时间
持续时间在中,您可以将相对起点放在中(注意创建/修改时间区域)您不需要在视频中嵌入时间码,视频标题有足够的字段来帮助您解决这个问题
每个帧都有以下“时间戳”:
如果您有一个相对的起始点(可以存储在每首曲目的视频标题中),您可以
以下是感兴趣视频的mplayer输出:
br@carina:/tmp$ mplayer foo.mov
mplayer: Symbol `ff_codec_bmp_tags' has different size in shared object, consider re-linking
MPlayer 1.0rc4-4.5.2 (C) 2000-2010 MPlayer Team
mplayer: could not connect to socket
mplayer: No such fi
我需要阅读joomla 2.5网站上的流媒体视频。
有线索吗
谢谢你所说的“读”我猜你的意思是“看”
在提出这样的问题之前,您应该真正检查一下,在那里您可以找到大量关于视频的扩展。很抱歉,我无法给出更具体的答案,但您可能需要在问题中提供更多详细信息。谢谢,我希望直接在我的网站上阅读ip网络摄像头的视频,我没有找到任何符合我要求的组件…我将使用JW播放器和自制组件!
在中,有一段代码演示了如何在视频中添加字幕:
<video id="subtitleVideo" style="position: relative; z-index: auto; width: 50%;"
src="http://ie.microsoft.com/testdrive/Videos/BehindIE9AllAroundFast/Video.mp4"
poster="images/Win8MediaLogo.png" loop cont
我想在Gallery设置中使用二维码来播放使用二维码存储在平板电脑上的视频。
我不希望QR码链接到远程URL,而是查找并播放存储在本地存储卡上的视频文件。
我可以生成成功定位和启动PDF或查看jpeg文件的二维码,但无法在本地成功启动视频文件。这可能吗?是的,可能。读取二维码中的数据,找到文件并播放。您的意思是要问一个特定的技术问题,与特定的语言、平台、操作系统、框架、二维码格式等有关吗?对于我来说,在nexus 7 android平板电脑上使用的二维码中输入以下文本(请注意三个斜线):
当我用
我正在尝试使视频元素兼容所有浏览器。VideoForEverybody可以在所有浏览器中工作
唯一的问题是Safari无法识别mp4文件(VideoForEveryBody说应该识别),并且播放swf文件
这是一个问题,因为在Safari中swf文件是在无限循环中播放的,尽管我没有添加循环属性。使用$(“#videoTag”).prop('loop',false)禁用循环没有帮助
<video id="videoTag" width="800" height="600" preload=
我正在寻找Windows上质量最好的文本到语音软件。
我将主要用于创建youtube和教程视频
我不确定这里的最佳选择是什么
到目前为止我发现了这一点:。我不得不建议。我自己也用过,给人留下了深刻的印象。出于您的目的,它有一个很棒的功能,可用于将简单文本转换为优质语音。相反,(语音到文本)当您使用软件时,它表现得更好,因为它实现了启发式学习算法以更好地理解您的说话方式。我也喜欢它有许多其他的命令,所以你基本上可以不用键盘,一旦你学会了一些基本的命令,你甚至可以浏览网页和发送电子邮件
对于开发人员
我在FFMPEG框架上集成了一个自定义解码器。该解码器的输出是YUV420帧,如果需要,我可以将其转换为RGB24帧
这些帧是在我的一个自定义函数中生成的。因此,为了在FFPLAY窗口上渲染这些帧,必须做什么?是否有任何特定的语法或程序要遵循
我真的是一个新手,在网上搜索了很多关于这个话题,但是没有得到任何与这个问题相关的东西。如果有人能就此提供任何答案或建议,这将对我大有帮助
提前谢谢
--关于我对破解FFmpeg的编解码器有些生疏,但我刚刚查看了最新的git源代码,我假设您使用的是同一个副本
正在寻找在IOS 7中的CCSprite中播放mp4或m4v的适当方法
我在这里找到了一些东西(下面的链接)。但它将视频添加到cocos2d活动场景中,而不是添加到CCsprite中
我不能把它变成一个精灵
(不,我找的不是CCVideoPlayer,因为它不可作为父对象,或者它不是移动或作为父对象的CCNode后代)
有什么好主意吗?
谢谢。cocos2d iphone没有这种东西。试着仔细看看CCVideoPlayer是如何工作的,因为也许你真的只需要调整视频的位置和大小来满足你的需要。如
我正在寻找一个开源的解决方案,混合2 mp4文件。第一个在第二个上面。第一个视频部分透明
最好的方法是什么?ffmpeg是解决方案吗
你能提供一些例子吗?我没有任何透明电影要测试。您是否尝试过:
ffmpeg -i source1.mp4 -i source2.mp4 -filter_complex "overlay" -strict -2 output.mp4
大家好,我正在做一个关于视听信号中情感识别的项目。我将avi格式的视频作为输入,并从中提取音频。。但提取的音频与视频中的不同。有谁能帮我找到与视频播放速率相同的音频文件吗。。下面是我使用的代码片段
enter code here
clc;
clear all;
close all;
file='pro1.avi';
file1='vipmen1.wav'; %o/p file name
hmfr=video.MultimediaFileReader(file,'AudioOutputPort'
我从iphone上传了一段视频,然后在安卓设备上播放,但出现了无法播放错误。在iphone中录制视频时,音频编码为AAC,视频编码为H.264和MPEG_4格式
为什么iPhone录制的视频没有在Android上播放?显然,由于某些原因,Android设备不支持AAC。您可以将其转换为另一种音频格式,最好是MP3。尝试将此视频转换器下载到您的计算机:然后,将其放回设备。如果无法进入Android设备,则需要从手机制造商处下载驱动程序,或者通过其他方式将该文件传输到Android手机。H.264可
我知道如果我事先知道视频是如何旋转的,我可以使用transpose视频过滤器对视频进行转置,并使用类似以下内容更新元数据-metadata:s:v:0 rotate=0,但如何根据视频中的元数据旋转位使用正确的转置值?基本上,我希望将旋转信息烘焙到视频数据本身中,并清除旋转元数据
是否可以单独使用ffmpeg执行此操作,或者我必须编写某种脚本来提取旋转值,并使用适当的选项调用ffmpeg?如果是后者,是否有人已经有了工作脚本?:)我认为这是一个人使用exiftool和rails的方法;是否可以不
我有一个不同分辨率的视频文件列表。我应该把它们改成1920x1080。使用ffmpeg和比例滤波器很容易制作,但结果视频的纵横比错误。如果使用纵横比,则输出分辨率不是fullhd。是否可以将分辨率更改为最佳可用比例,如比例=“'if(gt(a,16/9),1920,-1):'if(gt(a,16/9),-11080)'
所有剩余的空间都用黑色填充?找到了解决方案,但不知道是否合适:
ffmpeg -i a5732-480x320-clip01-sound.mp4 -filter_complex
TLDR:您可以在mp4头中为第一帧设置任意字节偏移量吗
我有一个实用程序的想法,用于处理在goPro上记录的mp4文件,以帮助以后对同时记录的文件进行时间对齐
这一想法的核心是获取一个大文件(数千兆字节),并从一开始就逐帧传输,直到找到一个嵌入二维码的帧,这可能是通过将相机指向智能手机或平板电脑拍摄的,而智能手机或平板电脑正在快速浏览指示某种时间码的二维码。项目的这一部分将相对简单,只是计算帧的问题
然后我希望能够备份mp4文件的头,并重写头,告诉它文件的前x帧实际上是未知数据,因此视频内容从
有人知道live555和ffmpeg之间的主要区别是什么吗。似乎两者都能进行视频流。是不是live555在RTSP中执行,而ffmpeg在mpeg-2传输流中执行?谢谢,Ran它们是使用一些相同的LIB构建的,一般来说,ffmpeg可能更多地用于转码,c接口用于转码中使用的LIB
Live555适用于RTSP协议以及其他许多功能
首先看ffmpeg,看转码相关的内容,看live555,看流媒体 简单地说:
FFMPEG是一个用于编码和解码视频/音频的库
Live555是一个库,用于流式播放已编
我在嵌入MP4文件时遇到了一些问题(特别是Firefox Mac抛出了一个“找不到mime类型的视频”错误)
我已经用SSH连接到我的主机上,检查了MP4文件的mime类型,但它没有,我希望是“video/MP4”
这是导出视频时出现的问题,还是服务器配置导致的?
我已将mp4添加到.htaccess文件中。嗯
我已经用SSH连接到主机上,并检查MP4文件的mime类型,然后
它没有一个,我希望是“视频/mp4”
。。。你永远也找不到它。mime类型未“附加”到文件。mime类型用于HTTP请求
我是MATLAB新手,我必须输入实时视频并跟踪某个对象,我正在使用一个函数:
obj = videoinput('winvideo' ,1,'YUY2_320x240');
为了拍摄实时视频,我必须读取视频的第一帧来跟踪我使用的对象区域
videoFileReader = read(video,1);
方法,但它给出了一个错误
错误:“类型为“videoinput”的输入参数的未定义函数“读取”
所以我需要任何其他方法来读取第一帧。也许可以查看预览和getsnapshot:谢谢,我使用
标签: Video
h.264ms-media-foundationencoder
我的问题是H264编码器。解码器工作正常。我列举编码器。它返回一个H264编码器。我试着用两种方式设置媒体类型。FYI输出媒体类型设置正确。根据MS文档,需要首先设置输出。我只设置IMFTranform属性,不设置ICodecAPI属性。一旦设置了输出,我就转到输入
两种方法是:
1) 创建空白媒体类型,设置属性并应用它们2)或获取可用的输入类型,然后修改我感兴趣的属性,如帧宽度、高度、帧速率和隔行模式。SetInputType与C00D36D5(无效媒体类型)一起失败。不知道为什么。MFTra
最近,我工作的一个网站上的移动视频停止了工作
通过一些测试,似乎有什么东西在掩盖玩家。因为如果我做了一个点击事件并瞄准了我的视频块,当我点击它时它什么也不做
真正奇怪的是,如果我为html、html*、body或body*创建了一个单击事件,那么在单击播放器时仍然什么都没有发生。如果我点击播放器上方或下方的项目,这些事件将触发,因此我知道事件设置正确
如果有什么东西掩盖了球员,我不知道会是什么。我试着将视频块的z索引增加很多,但仍然没有结果。视频下方的缩略图列表将播放视频,因此播放器本身不会出现
我需要一些帮助同步视频时间线与曲线系列的数据选择点。
为了更好地解释我想做什么以及我到目前为止做了什么,请看
我需要选定的点停止闪烁。我需要更流畅的运动。
我尝试了一些技巧,但没有成功
欢迎任何帮助
var video = document.getElementById("Video");
$(function () {
$('#container').highcharts({
chart: {
type: 'spline',
我正在制作一个2D游戏,但我们想放视频,通过使用MovieTexture我们当然可以上传或导入视频,但它不会建立在android手机上。所以我的问题是有可能把一个3D物体放到我的2D游戏中吗?谢谢你的帮助:)我几乎听不懂你的问题,但通常你会问在2d游戏中使用3d对象
即使制作2d游戏,unity也使用3d空间。但在2d游戏中使用正交摄影机,而不是在3d游戏中使用透视摄影机。因此,您可以简单地在游戏中同时使用2d和3d内容。为了获得更好的答案,请提供更多信息。实际上,我的游戏是2D制作的,我的教授
下面是一个文件,其中包含单个youtube视频的前30秒。通过以下方式对其进行预处理:
我使用显示过滤器http.request.uri包含“crossdomain.xml”来了解客户端和服务器的ip地址
使用这些地址,我用以下显示过滤器挑出视频流ip.addr==ip1&&ip.addr==ip2,并上传了结果捕获文件
原始视频是
现在问题是:
客户端使用两个端口:57057和57058(第一个端口用于的流量比第二个端口少得多)。为什么有两个端口
通过57057的对话以一个奇怪的GET/gen
我正在寻找使用AVKIT从我的应用程序播放视频的示例或源代码。我找不到使用新版Swift 2(IOS 9)的例子。因为在IOS 9中不推荐使用MPmovieplayercontroller。非常感谢您的帮助。您可以使用iOS 8.0及更高版本中提供的类:
import UIKit
import AVKit
import AVFoundation
class ViewController: UIViewController {
override func viewDidAppear(a
标签: Video
azure-storage360-degrees
如何在我的网站上播放360度视频?我的mp4视频存储在我的Azure Media Services blob上,我在我的网站上使用adobe flash player。我不知道该在哪里添加什么,这样360功能才能正常工作。我希望它在我的网站上从Azure流,就像他们在这里做的一样
谢谢你你需要找到一个能专门处理这种视频的视频播放器。默认的HTML5视频播放器不支持
快速搜索显示了一些选项,例如
将该播放器放到您的页面上,只需指向播放器的源(src),使其指向.mp4的blob存储所在的地址 嗨,
我有嵌入在网页中的Youtube/Vimeo视频,我希望这些视频在LinkedIn上共享页面链接时可以内联播放。目前正在使用的OG标签使这一功能在Facebook上得以实现,但在LinkedIn上并不成功
以下是我正在使用的OG标记:
<meta property="og:url" content="url_of_my_website" />
<meta property="og:site_name" content="my_website_name" />
<me
我想使用ffmpeg将RTP流转换为MP4(HTTP)流,这样我就可以在html视频标签中播放
但我只能成功地转换成flv格式
以下是我的设置:
[/etc/ffserver.conf]
...
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 5M
ACL allow localhost
</Feed>
<Stream flv>
Feed feed1.ffm
Format flv
V
我已经能够通过按下按钮并再次按下按钮停止录制并导出视频来录制和保存视频。如果我停止处理草图并重新启动它,我可以播放视频。这是因为当我正在录制正在处理的视频并停止录制时,视频文件正在数据文件夹中制作,但尚未完成。就像视频大小约为50字节,并且在处理草图仍处于活动状态时没有可见的缩略图一样。但一旦我停止处理草图,视频就会制作出来。然后,我的文件夹中将显示一个缩略图,大小将增加到大约600kb,并且文件可以播放。所以我需要停止并重新开始我的草图来完成视频。有没有其他方法来完成我的视频,并能够在我完成录
标签: Video
mp4h.264encodermp4box
我用IBBBP对JM的高清视频(Beauty.yuv)进行编码。。。模式
然后,要通过MP4Box将output.264转换为out.mp4,请执行以下操作:
MP4Box-配置文件高-提示-mtu 1024-fps 30-添加输出.264 out.mp4
然后我创建.st文件:
./mp4trace-f-s 192.168.0.2 12346 out.mp4>st_a01.st
但是我的st文件看起来像:
1 I 142647 140 0.075
2 p 82493 81 0.202
3 p
我正在从H264流中保存一个MP4视频文件,该流由raspivid命令生成(我正在使用Raspberry的相机)。我看到的问题是一些视频播放器不能正确处理MP4文件。我试过Windows Media Player和Android Chrome股票浏览器(视频将在网络应用程序中播放),两个视频播放速度都非常快(可能是正常速度的20倍),我找不到它们
唯一一个运行良好的播放器是VLC,在那里我没有问题,我可以搜索,它以正确的帧速率播放
管道:
fdsrc,
! video/x-h264,width=
我在这里有点不知所措。我通常是一名coldfusion/javascript/jquery开发人员,但现在承担了一项假设我知道的比我知道的更多的任务
我正在尝试用electron编写一个应用程序,它允许我选择一组视频文件,并将其转换为mp4文件,同时对其进行压缩。这些文件是足球比赛,一场普通的比赛大约有160场比赛和18gb。我们需要将它们压缩到4gb左右。我曾经使用过类似Prism的程序来实现这一点,但目标用户在技术上并不精通,他们也不都有windows——有些人有Mac电脑
我有一个电子项目
使用以下命令尝试使用ffmpeg从视频制作一些图片:
ffmpeg -i input.mp4 -ss 01:23:45 -vframes 1 output.jpg
但不断地出现这样的错误:
ffmpeg: error while loading shared libraries: libx265.so.79: cannot open shared object file: No such file or directory
当我执行:
ldd $(which ffmpeg)
我得到这个输
在ffserver配置文件的Stream部分中,RTSPOption的可能值是什么
中提到了该选项,但没有进一步的细节。好吧,如果它在近3年后起作用,您可以指定如下RTSP选项:
RTSPOption rtsp_transport tcp
RTSPOption rtsp_flags listen
我试图在虚拟机上运行命令:ffmpeg-I vid1.mp4-vf“ass=subtitle.ass”vidOut.mp4,但遇到错误:
Fontconfig error: Cannot load default config file
No usable fontconfig configuration file found, using fallback.
Fontconfig error: cannot load default config file
ffmpeg然后完成了该命令的运行
我试图使用下面附带的或代码片段来说明这个问题
重新设置步骤:
打开代码段或小提琴,让它加载
单击隐藏视频按钮隐藏视频容器
现在单击显示视频按钮以显示视频容器
完成上述步骤后,我们可能会看到加载量规阻碍视频控制的时间比预期的长
布莱特科夫酒店
body{-webkit动画:-amp start 8s steps(1,end)0s1 normal tweet;-moz动画:-amp start 8s steps(1,end)0s1 normal tweet;-ms动画:-amp start 8s
我使用带有h264编码输出的ELP USB摄像头
获取视频流的Ffmpeg命令:
ffmpeg -i /dev/video1 -c:v copy output.ts
因此,我有一个4Mb比特率的视频-这个值对于我的任务来说太高了
当我使用GSTreamer时,也会出现同样的情况:
gst-launch-1.0 v4l2src device=/dev/video1 ! video/x-h264,width=1280,height=720,framerate=30/1 ! mpegtsmux !
通过运行以下命令,我可以在mp4容器内以1秒的偏移量对视频流进行编码:
ffmpeg -i input.mp3 -itsoffset 1 -t 3 -i input.mp4 -c:v copy output.mp4
如何使用ffmpeg返回流的偏移量
使用此命令,我可以获取特定流的信息(例如,本例中的视频流):
我得到了有用的信息,比如流的持续时间,但是偏移量从未包括在内
请注意,我不能使用ffprobe
编辑
此命令的完整日志:ffmpeg-i input.mp4-map 0:v-frame
我在使用FFmpeg覆盖视频文件上的元数据时遇到了一些问题,之前已经添加了元数据(以前的元数据也是由FFmpeg添加的)
因此,我使用ffmpeg-I path/to/video file-I/path/to/metadata-map_metadata 1-codec copy path/to/output file将元数据文件与视频文件合并,但如果视频文件已经通过此命令,一旦新的元数据不再粘贴,则只保留旧的元数据。有没有办法强制新的元数据文件覆盖元数据
到目前为止,我所做的大部分工作只是从头开
我正在尝试使用ffmpeg创建具有交叉淡入淡出效果的幻灯片
正如前面提到的,另一个,我使用下面这行代码来实现这个目的
ffmpeg -i SEQ_%03d.png -i $AUDIO -vf zoompan=d=$TOTAL_DURATION:fps=1/$FADE_DURATION,framerate=25:interp_start=0:interp_end=255:scene=100 -c:v mpeg4 -shortest -maxrate 5M -q:v 2 "temp_file.mp4
我正在尝试将HLS远程源下载到本地MKV文件。管道工作正常,但下载速度似乎很慢(没有编码,只有重新复用)。
我希望这个过程和网络速度一样快,但事实并非如此。
看起来GStreamer正在播放HLS播放列表,就像它是一个实时播放列表一样,尽管它不是。播放列表已关闭,不是实时流
我使用souphttpsrc作为SRC,使用带有本地路径的filesink作为输出。
此外,在运行管道时,我可以在控制台中看到以下行:
Setting pipeline to PAUSED ...
Pipeline is P
我对直接在我的网站上使用视频感兴趣,而不是使用标签从YouTube加载视频
但是,我担心大型文件会降低连接速度慢的用户的加载时间
装载是如何工作的?我刚刚检查了一下,注意到它在播放时正在加载。。。这解决了大型视频的加载时间问题吗?我想你是说你想拥有自己的视频,而不是像YouTube这样的服务
视频流是一个非常专业的领域,如果您想获得良好的质量,并考虑到不同的设备和网络条件,那么通常最容易使用专业视频流服务器来托管视频
解决方案的例子包括:
Wowza-
统一流媒体-
AWS媒体服务-
这些都
如何从ffmpeg的信息输出中获得视频的高度和宽度。例如,使用以下输出:
$ ffmpeg -i video.mp4
...
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'video.mp4':
Metadata:
major_brand : isom
minor_version : 1
compatible_brands: isomavc1
creation_time : 2010-01-24 00:55:
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 118 页