Video streaming 将MJPEG转码到FLV或MP4

我想将来自IP camera()的MJPEG流转码到Linux操作系统下的FLV或MP4流,以便用户可以使用基于web的Flash播放器(例如)播放该文件 我发现VLC就是为了这个目的,但我无法找出确切的命令行字符串。我还需要HTTP身份验证功能,因为IP摄像头访问受密码保护 我还对任何非VLC解决方案感兴趣,如果有的话(ffmpeg?)。似乎VLC可以进行HTTP身份验证。 我相信它可以输出到flv。 通常情况下,我首先使用GUI查看它作为参数使用的内容,然后再从那里开始。这里没有神奇的公式,

Video streaming 从摄像头到三星智能电视的流媒体视频

我正在尝试从摄像机中传输视频。摄像头的网页流媒体链接为- 'http://192.168.blah.blah/img/mjpeg.cgi' 我制作了一个示例SmartTv Basic应用程序,并添加了一个场景。在场景的HTML中,我添加了以下内容 <iframe src ='http://192.168.blah.blah/img/mjpeg.cgi' id='player' ></iframe> 当我在模拟器上运行时,视频流很好。但当我在实际的电视上部署应用程序时,

Video streaming 视频流在几秒钟后冻结,但声音工作正常

我正在编写一个应用程序,使用VideoView从互联网播放m3u8流媒体。流媒体看起来像是在播放,但几秒钟后就停止了,尽管如此,音频仍然可以正常工作 如果我用VLC视频播放器打开流媒体,它可以正常工作,所以这不是因为流媒体 编解码器为:(数据取自VLC) 活动主目录 <androidx.constraintlayout.widget.ConstraintLayout xmlns:android="http://schemas.android.com/apk/res/android"

Video streaming 通过Java进行视频捕获(实时视频流)

我想写一个程序,可以通过我的摄像头捕获视频使用Java语言,即实时视频流。 我已经找到了一些关于这个主题的线索,但问题是如何使我的程序独立于操作系统,比如如何在32位和64位操作系统上捕获视频 请帮我解决这个问题,我做这项工作的时间很短。此外,如果有人对此话题有任何线索,请在此处发布其链接。。 谢谢 由于j2se中没有可用于从网络摄像机捕获视频的类,因此您需要一个外部库(如JMF或JavaCV)来完成同样的任务 要安装JavaCV,您可以在以下链接中找到说明: a。Ganeshtiwaridoc

Video streaming 从网络摄像头到RTMP的流(Mistserver)

我已经安装了Mistserver,并试图找到如何将视频从网络摄像头发送到RTMP的教程。许多教程只显示如何接收视频,而不显示如何发送:-/这里有人在使用示例或链接到工作教程吗?HTML5或Flash。最简单的方法可能是使用ffmpeg拉入网络摄像头流并通过RTMP传输 例如,类似这样的事情: ffmpeg-i-acodec aac-ac 2-strict Experiative-ab 160k-vcodec libx264-preset slow-profile:v基线-level 30-max

Video streaming 如何测量视频流中的延迟?

我使用webRTC创建了一个视频会议和视频流应用程序。它工作得非常好。但是我如何测量发送端和接收端的延迟呢。有什么实用程序吗?输入URL“chrome://webrtc-internals/“在您的Chrome浏览器中。它有很多有趣的发送和接收网络统计数据,这将给你很多有用的数据。希望这有助于测量延迟。这并不简单,但您可以通过rtpeerconnectiongetStats()方法获得相同的数据。这里有一个例子。

Video streaming mpd文件中的segmentrange是什么意思?

我从中得到了一个示例mpd文件,下面是一个包含单个表示的片段 ... <Representation bandwidth="4190760" codecs="avc1.640028" height="1080" id="1" mimeType="video/mp4" width="1920"> <BaseURL>car_cenc-20120827-89.mp4</BaseURL> <SegmentBase indexRange

Video streaming 是否可以通过RTSP协议传输MP4视频文件?

我已经创建了RTSP服务器。客户端是VLC媒体播放器。它通过以下方式与我的服务器连接: OPTIONS rtsp://192.168.1.6:5554/camera RTSP/1.0 CSeq: 2 User-Agent: LibVLC/2.2.4 (LIVE555 Streaming Media v2016.02.22) RTSP/1.0 200 OK Session: 698955009;timeout=60 Expires: 0 Server: RTSP Camera Server (A

Video streaming MPEG-DASH-DASH无效!错误

我一直在努力学习MP4Box和Dash,我正在取得一些进展,但我似乎无法让我的视频正常工作。我按照说明将播放器添加到一个简单的html页面,并用它测试了Dash测试页面中已知的MPD,播放器的所有功能都非常完美,因此我缩小了MPD文件的范围 我通过Dash验证器运行了我的MPD文件,但它失败了。我得到以下错误: Start XLink resolving ===================== XLink resolving successful Start MPD validati

Video streaming 在AXIS摄像机中RTSP播放失败

我正在尝试使用AXIS摄像机播放RTSP会话。我的404没有找到。请帮忙!以下是我通过telnet连接摄像头并运行以下命令时得到的结果: DESCRIBE rtsp://10.0.1.201:554/axis-media/media.amp RTSP/1.0 CSeq: 1 Authorization: Basic cm9YYYGx1dG8z** RTSP/1.0 200 OK CSeq: 1 Content-Type: application/sdp Content-Base: rtsp:/

Video streaming 从本地文件上载视频时不允许加载本地资源错误

我尝试将包含视频的场景加载到LMS中。我使用unity内部视频播放器的URL加载视频。它在编辑器中运行良好 然后我构建为WebGL,当我在Microsoft Edge中打开index.html文件时,它也会播放视频,而且没有问题。稍后,当我使用这个index.html文件并将其上传到LMS时,视频不会播放。我用来显示视频的原始图像是黑色的。我得到了这个错误: sindex.html:1不允许加载本地资源:file:///D://Rosen8x8/Assets/Kabini/RosenVideo.

Video streaming Google Drive、Dropbox等如何在浏览器中传输任何上传的视频文件格式

我有一个关于云服务或VOD服务如何流式传输视频文件的理论问题 例如,你可以在Google Drive和DropBox中上传几乎任何视频格式,然后通过他们的web应用程序播放。如果html5视频标签只支持mp4、ogg和webM,而我的浏览器上没有安装插件或启用flash,你怎么做?youtube呢?流媒体是如何工作的?你可以上传几乎任何类型的视频格式。他们是在上传时对其进行转码,还是保持原始文件格式 为了学习purpuses,我正在使用云服务API创建一个web应用程序,但由于浏览器视频标记的限

Video streaming 实时流-使用WebRTC和;沃扎

我在本地网络中连接了摄像头,我正在使用Wowza服务器和WebRTC,以便能够使用video元素在客户端播放这些流,而无需ActiveX插件。在客户端中,我使用Websocket从Wowza获取数据,并将其传递到rtpeerconnection和video标记 我把一切都做好了。所以没问题。流在低延迟下运行良好(至少在开始时) 我的问题是: 在播放开始时,延迟非常低,不到所需的一秒钟。几秒钟后,延迟会增加并继续增加。。我想是因为我们的Wowza服务器很弱。我说得对吗 如果是这样的话,有没有办

Video streaming 如何通过RTMP协议同步两个视频流?

我有一个IP摄像头,每次我处理OpenCV捕获的一帧并输出两张图片。然后我通过不同的rtmp地址同时流式传输这两张图片,例如,一张是“rtmp://ip:port/live/stream1“另一个是”rtmp://ip:port/live/stream2". 从服务器端,我通过PyAV提取这两个流 import os import av from multiprocessing import Pool # change src for your need src_dict = { 'b

Video streaming 你知道什么视频编解码器用于信使吗?

我想知道MSN、雅虎、QQ或任何其他XMPP信使使用的视频编解码器 谢谢您的帮助。对于视频编解码器,它是这样的: Skype: 雅虎!Messenger:,也就是说,只有工字架 谷歌对话: MSN Messenger: iChat: 对于视频编解码器,它是这样的: Skype: 雅虎!Messenger:,也就是说,只有工字架 谷歌对话: MSN Messenger: iChat: 编解码器?什么意思?协议?编解码器?什么意思?协议

Video streaming 视频流HDS Flussonic Erlyvideo

是否有人使用earlyvideo flussonic设置伪流mp4 我需要示例配置行,smth。比如: {文件,等等…} 和manifest.f4m+目标文件+段(链接到下载),以及所有这些文件的位置 Debian挤压、nginx、flussonic(正确运行) 我将非常感谢您的帮助。{http,8080}。 {文件,“vod”,“/var/movies”}。 {root,“wwwroot”} /etc/init.d/flussonic启动 然后转到http://localhost:8080/#

Video streaming 在html中嵌入.m3u8文件

我有这个文件: http://50.7.191.250:8080/hls/main/tvp2.m3u8?token=ee4091dc1db99d678bcc70a1460d724a19f9becf 我正在尝试将其嵌入到html页面中。有人知道我需要什么工具才能在线观看此视频以及如何观看吗?看起来您正在尝试播放hls流。我会尝试使用flowplayer。检查:例如。可能重复的

Video streaming WebRTC是否会使用恒定的帧速率来捕获视频帧

WebRTC是否会使用恒定的帧速率来捕获H264流?我只能找到最大帧速率配置。否,我认为它是可变的,可以使用WebRTC的getStatsAPI查看任何点的精确帧速率。@mido22这是渲染的帧速率,但我认为捕获帧速率不是可变的,除非你初始化了捕获器。@Kevin,我的坏蛋,把它当作渲染帧速率,捕获帧速率是否在控制之下,虽然chrome在getUserMediaconstraints@mido22是的,这很奇怪,我知道在iOS中你可以使用约束来设置它,它可能有效,也可能无效。。。。。Chrome

Video streaming 如何在飞行中打包HLS和MPEG-DASH?

我想创建视频点播流。我想通过hls和mpeg dash传输视频。 我使用的是H.264/AAC。但我不想在hls和mpeg dash容器中存储两次视频。是否可以将视频存储在临时容器(如mpeg ts或mp4)中,然后使用hls和mpeg dash进行流式视频点播?或者可以单独存储视频h.264和音频aac,然后在hls或mpeg dash中动态打包视频吗? 我不会使用实时流媒体。您提到的过程称为“转换”,它意味着在容器之间进行动态重新包装。现代媒体服务器允许这样做,所以您只需将MP4文件放在磁盘

Video streaming 修复HLS流的音频丢失

我有一个HLS流,它在Android和iOS上退出,但在网络浏览器(flash)上运行良好 编码器:Wirecast Pro 5.0.3 编码器设置:输出格式-(视频)闪存,h.264 480x270 24fps,365 kbps,每48个关键帧(音频)AAC单声道96kbps 44.1hz 流地址: 症状:在iOS/Android系统中,首先音频中断,视频继续播放。然后视频可能会退出。最终情况会变得更糟 我的尝试:我降低了编码器的比特率,升级了硬件。我已经做了速度测试和ping测试来验证带宽不

Video streaming 如何用Gatling模拟媒体流

因此,在我的模拟中,我需要复制一个包含媒体播放器的页面,并从同一后端流式传输视频 使用Gatling的Get请求,它将一次下载整个视频,而不是像在浏览器中那样只下载部分内容 有没有一种方法可以控制或调整下载流的速度,使其不会一次下载整个视频,而是通过浏览器中发生的部分内容进行下载?您所描述的是渐进式下载或伪流式下载。这与通过流协议(如HLS)实现的流不同 渐进式下载使用 我还没有使用,但我看到它支持设置HTTP请求。应该可以设置适当的范围标题。检查第一个链接以获取示例 如果有效,您将看到206部

Video streaming 在网站esp32 cam中实现视频流

我想用ESP32摄像头显示实时视频流,并且在同一个网站上还有一些其他控件的按钮。到目前为止,我已经能够显示9个工作按钮,但我找不到任何关于如何同时显示视频流的内容。如果视频流在一个单独的浏览器选项卡中工作,它也会对我起作用。在这里,我尝试使用Rui Santos的代码进行视频流 并结合我的工作代码建立一个网站。代码没有抛出任何错误,但它也只显示视频流,没有我的网站。任何关于如何以不同方式进行的帮助或提示都将不胜感激 #include "esp_camera.h" #inclu

Video streaming 基于TCP/IP的大二进制块传输协议推荐

我计划开发一种视频转码系统 一台机器具有帧捕获器,可接收来自不同来源的音频/视频信号。 几个转码机将通过千兆以太网连接到此源计算机。 源计算机将压缩音频/视频帧数据发送到转码机 因为这是简单的单向传输,我想我可以使用HTTP。但是网络带宽是个问题 通过简单的搜索,我在中找到了一篇帖子。 这个真实的千兆以太网示例显示的吞吐量只有340Mbps 我的目标系统应该能够同时对全高清视频进行多次转码。 1080P全高清视频的数据速率可以达到712Mbps,无需压缩。即使使用压缩,这也很容易使千兆网络在仅有

Video streaming 在RTP UDP上以FU-A模式打包h264流时出现问题

我在通过UDP使用SIP和RTP打包h.264流时遇到一些问题。 我在mp4中使用FU-A打包模式制作视频avc曲目。 我花了时间来获得正确的分段,在RTP数据包上加上持续时间戳,并在分段单元的最后一个数据包上设置标记位。 有人可以看一看我在下面的链接中发布的数据包,它流式传输下面所示的mp4。您需要使用ssrc 0x1653检查wireshark pcap中的第一个h264 RTP流,这是我尝试打包的流。正在接收流的视频电话没有显示流,我正在尝试排除原因。谢谢你的分析。 保罗 首先,我不知道

Video streaming 我可以设置一个将视频流写入文件的服务器吗?

我认为这不是一个编程问题,但我不确定该问哪里 我有一个RTSP视频流,我想在它传输时接收并写入视频文件 我已经找到了几个服务器,允许重新流这样的RTSP流,但我没有找到任何东西,可以让我写下一个视频文件,因为我收到它。更理想的是,免费的 有人能为实现这一目标提供一些建议吗 编辑只是为了更清晰: 比如说,当我在视频中看到一些有趣的东西时,我希望能够打开/关闭录制。所以我的用例是:用户坐在屏幕前,观看来自(比如)ip摄像头的实时视频,当他看到感兴趣的东西时,他开始录制特定片段,然后停止录制。无需进一

Video streaming 内容类型=视频/abs

在通过HTTP捕获的实时电视中,我看到HTTP流量携带“video/abs”负载。我用谷歌搜索了一下,但没有找到任何具体细节 有人能解释一下这个内容是什么以及为什么使用它吗 谢谢 video/abs内容类型用于流式视频。其中一段视频被分成很多片段,当播放器需要时可以下载 这种类型的流媒体无法在常用的下载工具中下载 您需要使用应用程序来捕获流媒体,如或这些是由实时流媒体软件发送的HTTP头,用于HTTP动态流媒体 ABS文件是Adobe HDS引导程序。Adobe HTTP Dynamic Str

Video streaming 基于SIP的视频流服务器的开源解决方案?

我需要实现一个基于SIP的视频流服务器,它可以与iOS/Android上的SIP摄像机以及SIP客户端进行通信 我正在调查openSIPS和Kamailio的开源项目,只是想知道哪一个更适合这个应用场景,或者还有其他更好的选择吗?我怀疑,这将更接近您想要的。诸如OpenSIPS和Kamailio等SER衍生产品面向SIP信令,我甚至不确定它们是否提供了任何视频功能,除了支持使用它的呼叫设置和可能代理RTP之外 但是,如果您的目的是直接连接到基于SIP的IP摄像头,则不需要SIP服务器,您可以直接

Video streaming 在同一程序中将数据包从一个端口转发到另一个端口

我正在编写一个程序来接收来自VLC的视频流并转发它。我正在使用java。我创建了一个端口(1234),并使用UDP从vlc接收端口中的数据包。我想将数据包转发到另一个端口,以便重新路由它。但不幸的是,我不能转发。接收部分工作正常。我怎样才能解决它。我的代码如下 DatagramSocket clientSocket = new DatagramSocket(1234); DatagramSocket sendSocket = new DatagramSocket(9999);

Video streaming 流式h264实时800x600

是否可以通过internet使用分辨率为800x600的rtp实时发送视频流 我读过关于MTU限制的文章,但我不知道如何用这个分辨率来达到这个限制,甚至用h264压缩它 什么技术使用流行的视频聊天程序来做到这一点 我尝试了大量压缩,但只能以400x300的分辨率发送 是否可以通过internet使用分辨率为800x600的rtp实时发送视频流 对 我读过关于MTU限制的文章,但我不知道如何用这个分辨率来达到这个限制,甚至用h264压缩它 这无关紧要:支持更大NAL单元的分解以满足MTU约束。您确

Video streaming rtsp广播时仅播放1个流

我正在尝试为mac实现RTSP广播。我能够独立播放音频和视频,但当我开始同时播放它们时,我一次只能听到音频或视频。如果播放音频,则视频不显示,如果播放视频,则没有音频。apple AVcapture会话中出现了一些问题,因为它在一段时间后延迟了数据包的生成。我必须为麦克风创建一个seprate avcapturesession,它解决了我的问题。感谢拉尔夫的支持。您使用的是什么RTSP客户端?您需要在包含RTP到NTP时间戳映射的发送方实现RTCP SRs,这是将流同步到同一时钟所必需的。谢谢R

Video streaming RTSP视频在Wowza测试播放器上可以正常播放,但如果在VLC或其他播放器上测试,则无法播放视频(音频始终可以正常播放)

我正在开发一个基于RTSP的应用程序,在该应用程序中,我试图使用RTSP将我的mac屏幕广播给wowza。一切似乎都很好,但在wowza上播放音频和视频时,我遇到了一些非常奇怪的问题 我所做的是从外部麦克风捕获音频,在mac上捕获屏幕,并将其转换为视频,然后将音频和视频作为单独的流进行广播 如果我向wowza广播音频和视频,那么在这种情况下,视频和音频在wowza测试播放器(随wowza客户端提供)上都可以正常播放。但是,如果我尝试将相同的流传输到vlc播放器(使用RTSP或RTMP)或任何其他

Video streaming 在线视频流的网络分析

我想通过网络浏览器播放视频流,并通过Wireshark或其他工具捕获网络。 如何找到视频的视频分辨率和其他视频信息 一旦加载了视频流的元数据,就可以获得视频高度和宽度 var myVideo=document.getElementById(“myVideoID”); myVideo.addEventListener(“loadedmetadata”,函数(e){ var vidWidth=this.videoWidth, VIDEHEIGH=此.videoHeight; //在这里使用您想要的信

Video streaming 我可以使用dimdim进行基于web的视频聊天吗

我想知道我怎样才能拥有自己的基于网络的视频聊天服务,类似于gmail聊天/视频聊天。 我知道我们可以使用dimdim开源项目来实现这一目的 当用户在线聊天时,我想为他们提供一个视频聊天选项。与commetchat选项类似,但它们使用tokbox。但我希望我自己的视频服务器能这样工作 欢迎所有回复 致以最良好的祝愿 Jamessalesforce购买的dimdim看起来不再像它的开源产品了:最容易使用的openTok/Tokbox可能看看它有多老了:2009年,2008年,这不是dimdim的最

Video streaming 关于HTML5视频,RTSP、RTMP和HTTP渐进下载的趋势是什么?

我们正在研究HTML5视频,以提供交互式视频体验,例如通过超链接控制视频(例如,允许用户跳转到尚未下载的视频部分),以及响应视频事件的JavaScript(例如,视频到达00:25时发生的事情) 对于测试视频,这似乎可以通过库(如Video.js)实现,并在现代浏览器中提供良好的体验 我正在阅读2009年的一篇文章,这篇文章似乎表明,很快(也许是今天),现代浏览器将赶上并超越流媒体协议和服务器的功能: RTSP是为类似IP语音应用程序的视频通信而创建的。它不是按需流式传输的最佳协议,在这种情况下

Video streaming 逐帧播放流式视频画面

我正在用rtp将视频从live555传输到VLC客户端。 从VLC播放流式视频时,我需要逐帧流式播放 问题是,有时在一个接一个播放几个帧(步骤帧)后,我会请求下一帧,但没有检索到新帧 获取“空”帧时,VLC日志消息显示: main debug: EsOutFrameNext consummed 0ms main debug: Stream buffering done 日志“非空”下一帧是(这是帧步骤正常工作的地方): 这些“空”下一帧的频率是动态的,但它显然会影响我的应用程序 我怀疑VLC客

Video streaming 如何从wowza服务器获取所有活动流?

我一直在尝试建立多个实时流(最多30个),并制作一些小型视频聊天网站,用户可以将流推送到服务器,其他用户可以观看这些流。我使用一个wowza实例和一个名为live的创建应用程序。在阅读了所有关于用户身份验证、令牌等的教程后,我意识到了这一点,但我仍然不知道: 成功登录的用户如何从wowza服务器获取所有活动流?我希望他有HTML页面和各种视频列表返回。登录用户是否应该向wowza服务器查询活动流 wowza如何在一个应用程序中区分和存储所有活动流 提前感谢您对这个主题的介绍。您可以构建自己的模块

Video streaming 如何修复EasyRTC中的Noviability错误?

EasyRTC似乎不再工作,甚至演示页面也给出了NOVIABLEICE错误(仅适用于个人网络): 因此,解决方案可能是: 所有EasyRTC stun服务器都已关闭? Easyrtc选项(包括stun服务器): 我在这里测试了GoogleStun服务器,没有得到任何结果:选择“iceTransport”值“relay”它不会返回任何结果。我真的不明白这个测试是如何工作的 (此选项不正确) 从2018年开始,我们的网络供应商现在使用硬防火墙? (这意味着2018年我现在需要一台turn服务器?)

Video streaming MP4文件中的H.264流是否可以包含附录B startcode仿真?

MP4文件实际上是使用MP4格式的HLS流包含AVC格式的H.264流:[NALU长度][NALU数据]。H.264解码器需要附录B格式:[startcode][NALU数据]。通常,startcode仿真可以以AVC格式进行,例如0x00000001可以在编码数据内部进行。这是否意味着MP4文件格式也可以包含带有startcode仿真的H.264 NALU?或者应该在打包到MP4之前应用仿真预防?仿真预防始终应用于从编码数据RBSP中删除00-02序列,因此这与附录B无关:H.264附录B格式

Video streaming 如何播放一个流乘VLC播放器?

我正在尝试通过以下命令流式传输视频: $ vlc [path to file] --sout udp:// [destination path] 在destination上,我运行了两个VLC播放器,它们通过命令播放一个流: $ vlc udp:// [source path] 当我运行第一个播放器时,它播放视频,但当我运行第二个播放器时,第一个播放器停止,只有第二个播放器播放流 如何由两个播放机播放一个流?我假设目标路径是播放机的IP和端口,这意味着您正在将流直接单播到该端点。当您在播放器

Video streaming x264速率控制

我们正在视频会议项目中使用x264编码器,基本的流式视频工作正常,但是,我们很难理解各种速率控制设置如何确定最终比特率。 我们设置了以下参数: x264_param_t params; x264_param_default_preset(&params, "ultrafast", "zerolatency"); params.i_threads = 1; params.i_width = width; params.i_height = height; params.i_fps_num

Video streaming 如何将视频从ubuntu传输到XBMC?

有人知道如何将视频从Ubuntu12.10传输到XBMC媒体中心(在raspberry pi上运行)吗。我知道我可以在XBMC上启用AirPlay,但我不知道如何从ubuntu上播放视频。我曾尝试为Totem播放插件,但没有成功。我已经成功地通过我的Ubuntu Studio 12.10工作站和在Linux或Android上运行XBMC的平板电脑/笔记本电脑完成了这项工作 您需要: 1) 一个兼容DLNA的内容服务器(如PLEX),运行在Ubuntu工作站/服务器上,为Raspberry PI

Video streaming 通过webrtc rtp层发送H264编码数据

我正在尝试向webrtc添加H264编解码器支持。我已经使用x264库将视频流编码到H264中。现在我需要通过rtp层发送编码数据。在rtp部分的webrtc代码中,我看到了一些与H264相关的东西,但它们没有包含在项目中,也没有被使用。它们甚至还不完整。有些纯虚拟函数没有实现。 是否有人添加了H264支持?我想知道你是利用了现有的H264员工还是自己做了所有事情?是否有很多rtp层更改,或者对VP8相关功能进行一些小的修改,我就能得到我想要的?我添加了H264硬件编码器,取代了现有的OpenH

Video streaming MP4 H264 VBR,如何获取视频每秒的比特率?

我有一些用H264编码的MP4视频,并显示在我的网站上 我关心的是与配偶的关系。我试图限制bandwith在一个时间间隔内发送不超过MP4所需的视频数据 例如,考虑视频比特率的第一秒为100kb。在这种情况下,我只需要在第一秒内向浏览器发送100KB的视频数据 我的问题是每秒钟都要得到这样的值。有没有办法在视频重播后获得这些信息?有没有办法通过从ffmpeg编码控制台抓取数据来获取此类信息?或者有任何低级别的API C,C++,…做这样的工作 谢谢 除了实际处理MP4格式的数据之外,我无法想象其

Video streaming GStreamer-1.0 Yocto:将RTSP流记录到h264 avi

我正在尝试使用avimux 在我的开发计算机上,它可以工作,但不是使用yocto生成的目标。 我使用avimux可以在录制期间或停止录制过程时播放录制的流,以避免 标头原子“mdat”的长度为空 并且能够在一次硬关机后播放这张唱片 我使用的管道: gst-launch-1.0 -e uridecodebin uri=rtsp://root:bni@192.168.0.5/axis-media/media.amp ! x264enc speed-preset=1 ! avimux ! filesi

Video streaming 本地VideoTrack上的Twilio可编程视频调用.disable()不';不要停止它的传播

我试图让我的用户通过禁用视频来减少带宽使用量,如果他们的呼叫是断断续续的。文件说: “禁用或暂停单个媒体曲目 要控制LocalVideoTrack的单个LocalAudioTrack的静音/非静音或暂停/非暂停状态,可以使用LocalTrack#enable和LocalTrack#disable方法。 " 然而,当我使用它时,本地媒体元素变黑(即停止渲染),但远程流(在另一个窗口中打开)仍然接收视频。下面是我正在使用的代码 createLocalVideoTrack().then(track =

Video streaming HTTP实时流媒体不使用摄像头源

我正在尝试使用带有tcamsrc的GStreamer通过HTTP创建实时流。我对HLS接收器使用了以下命令: sudo gst-launch-1.0 tcamsrc serial=<id> ! video/x-bayer,format=bggr,width=1280, \ height=960,framerate=15/1 ! capssetter join=false replace=true caps="video/x-bayer, \ format=rggb,width=128

Video streaming 如何创建实时流媒体应用程序?

我正在开发一个需要实时视频流功能的应用程序。就像Facebook一样,用户可以实时向观众播放视频。基本上,我需要知道开发流媒体应用程序所涉及的工具和技术 我在互联网上浏览了一些文章,但未能完全理解流媒体的概念,因此我仍然不知道从哪里开始。 直到现在我才明白: 客户端(移动/台式机/笔记本电脑)将录制视频,应用程序将以数据包的形式向服务器发送媒体文件。 问题:我的应用程序如何将视频分包?(对不起,如果这听起来太宽泛或愚蠢,但我需要知道从哪里开始? 流媒体服务器。我知道它将负责处理这些数据包。 问题

Video streaming GStreamer高质量屏幕录音,带音频

我正在尝试使用GStreamer从桌面屏幕和内部声音创建RTSP流。到目前为止,我已经将RTSP放在一边创建了一个稳定的管道,并将其保存到一个文件中。我得到: GST_DEBUG=3 gst-launch-1.0 -v -e \ ximagesrc use-damage=false \ ! videorate \ ! videoconvert \ ! "video/x-raw,framerate=30/1" \ ! x264enc i

上一页 1 2 ...  9   10   11   12    13   14   15  ... 下一页 最后一页 共 20 页