Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/sql-server-2008/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
 Video Streaming_IT技术博客_编程技术问答 - 「Fatal编程技术网」

Video streaming 流媒体服务器中的流媒体视频问题

我在Darwin流媒体服务器上遇到问题。我已经成功地安装了它,我还成功地使用它将兼容的样本流式传输到我的android手机上。我当时非常高兴。然后我把我的一些个人视频编码成类似的格式,放在同一个文件夹中。当我从我的rtsp客户端请求这些新视频时,我无法查看它们。然后我用VLC做了同样的事情,得到了同样的结果。在wireshark上查看TCP/RTSP数据包之后,似乎对于这两个播放器,我都收到了与文件或服务不可用相关的RTSP404错误。我错过了一些东西,不得不用我的新文件更新某个文件,因为服务器

Video streaming 使用停止时间从vlc命令行捕获视频

我正在尝试从RPT流到我的pc(Ubuntu12-04LTS)上捕获视频。我从命令行使用vlc,如下所示: cvlc-vvvrtp://address:port --开始时间=00--停止时间=300--sout文件/ts:test.ts 但是vlc忽略了命令--stop time,它继续下载视频,甚至超过指定的300秒 有人知道原因吗?还有一个可能的解决方案 谢谢是的,这是对停止时间选项的限制。它仅适用于已知长度的流。由于捕获的视频在直播时没有此信息(或者更准确地说,捕获访问模块甚至不尝试添

Video streaming 通过RTSP的VLC和流媒体:错误的颜色

我正在通过rtsp从位于局域网内的摄像机获取一个via流媒体。我使用VLC来获得这样的流。 几小时前,VLC正常工作,但现在它停止正常工作,当我尝试观看流时,颜色混乱:看起来我捕捉到了某种图像的负片(尽管它实际上不是负片)。 当我从其他玩家那里打开该流时,它工作正常 我试图更改缓存,但我完全确定这不是网络负载问题。 我正在windows server 2008上运行所有操作。在同样的环境下,它在几个小时前就开始工作了。 你知道问题出在哪里吗?问题出在哪里?在我的客户端Apple终端上配置了错误的

Video streaming 视频流和录制网站

我需要创建一个网站,该网站必须能够从连接的摄像头和麦克风直播视频,并将其存储在某个地方(在web服务器上?或其他地方),以便错过它的人可以稍后观看 你会推荐我这样做吗?取决于你的发展背景。我建议::)@Umair如果你是这个意思,我可以处理大多数语言。该网站是建立在php迄今为止,但我只需要使这个录音和流的东西工作。

Video streaming 使用MediaCodec的Google Glass视频流

我正在使用Google Glass开发一个实时视频流应用程序。 使用libstreaming 3.0、H264编码和MediaCodec API,获得的缓冲区有时为空。 如果我没有弄错的话,是玻璃上的视频编码器太慢了 使用MediaRecorder API和H264编码,流媒体工作正常,但质量和延迟不令人满意 有人遇到过这个问题吗?对于使用MediaCodec API和H264编码的Glass实时视频流,是否有一个好的解决方案?您想要什么分辨率?

Video streaming Kurento视频流

我有一个Java应用程序,我正在Linux机器上运行Kurento Media Server。我正在尝试让该应用程序运行。我可以访问该网页,看到本地流工作,但远程流从未通过——在Chrome或Firefox上 日志 网页控制台显示: 10:24:54.361 [ http-nio-80-exec-7] DEBUG - o.k.tutorial.groupcall.CallHandler - Incoming message from user 'Alex': {"id":"rece

Video streaming 当发生以下情况时,如何在DASH URL模板中替换$Time$SegmentTemplate@presentationTimeOffset有人在场吗?

下面是对该问题的较长介绍,该问题是对ISO/IEC规范23009-1:2019(“信息技术-HTTP上的动态自适应流传输(DASH)-第1部分:媒体呈现描述和片段格式”)的分析 介绍 ISO/IEC 23009-1:2019,5.3.9.4.4,表20规定了在构建短线流的段URL时如何替换$Time$标识符: 此标识符将替换为 正在访问的段的MPD开始时间。对于 段时间线,这意味着该标识符 被替换为的值 SegmentTimeline@t段的属性 正在访问。无论是$Number$还是$Time$

Video streaming 跨多个N/W接口分割视频流

我想通过互联网将视频流传输到远程PC。视频比特率约为600 kbps。但我的互联网连接只支持最大400 kbps的上传带宽 因此,我想我会得到一个更多的连接,并使用800 kbps的组合上传b/w来流式传输视频。我希望应该有一种方法可以跨两个接口分割流,并在远程端点将它们合并在一起。所有这些都必须实时完成 我不想把它转换成低分辨率和松散的质量 我还探索了使用虚拟以太网驱动程序的可能性,应用程序将800kbps的数据流传输到该驱动程序。然后,该虚拟驱动程序将数据(可能是循环-偶数分组到第一个连接,

Video streaming NS-3中的视频传输

我正在尝试为我的硕士做一个模拟,我需要模拟视频传输和流媒体。我已经有了视频跟踪文件,但我不知道如何将它们编码到NS-3脚本中。我开始只是做一个简单的拓扑,只是模拟一个简单的Wifi(基于教程),但我还没有找到读取和发送失败消息的地方。有什么帮助吗?您可以将OnOffApplication数据速率超过500 kbps的UDP模拟用作视频流数据速率。 或者,您可以使用一些软件(如VLC)将真实流量发送到ns3模拟,您的意思是“在哪里读取和发送失败数据”?我甚至不知道这是什么意思。你能解释一下“在哪里

Video streaming webrtc当前是否支持流媒体文件?

实际上有两个问题: 1) webrtc当前是否支持将*.flv和*.ts(HLS)fps等历史媒体文件流式传输到另一端(浏览器客户端)。(如果您还记得,在我们的大多数演示中,他们使用的是现场麦克风和摄像头。)如果是,有关于如何做到这一点的教程或演示吗 2) webrtc是否允许一种机制,在该机制中,我们可以强制流始终为tcp,而不尝试udp馈送 谢谢 WebRTC不支持任何文件格式的流式传输。WebRTC支持将相机/屏幕(屏幕功能仍处于试验阶段)流式传输到另一个启用WebRTC的客户端。WebR

Video streaming h.264 rtsp视频流在VLC中的录制

我尝试在Windows中使用VLC命令行从IP摄像机捕获并记录到文件rtsp视频流(h.264) 我可以使用以下简单方式查看流: vlc -vvv rtsp://10.1.5.228:554/live.sdp 而且每次都有效。但是,当我尝试录制30秒的视频时,使用 vlc -vvv rtsp://10.1.5.228:554/live.sdp --sout file/mp4:test.mp4 --run-time=30 vlc://quit 结果是不稳定的-有时它实际上记录了视频(然后它的

Video streaming 试图保护我们的流媒体不被下载

我们为一个为会员提供流媒体视频内容的客户建立了一个网站。我们现在面临的是我们的电影正在被下载。我们知道我们无法阻止屏幕截图,但目前人们似乎正在下载而不是截图 我们最近开始使用一个外部服务来阻止这个叫Vzaar的人,他提供AES加密的流,这些流由播放器本身解码。因此,我们的服务器上不再存储任何视频 但即使是现在,他们似乎仍然能够下载电影,即使是现在。有没有人有有效的方法来防止这种情况?谷歌Widevine可能是解决方案吗 如果netflix能够阻止大部分下载,那我就可以做到。也许谷歌Widevin

Video streaming WebRTC单向视频呼叫

我们在公司里摆弄WebRTC。我偶然发现了一件奇怪的事情,我不确定是WebRTC的设计还是我们这边的一个实现错误 我们目前有一个简单的WebApp,它显示在线联系人的联系人列表。现在,您只需呼叫联系人列表中的任何用户即可 呼叫者和被呼叫者可以自由选择共享网络摄像头和/或音频。然后,GetUserMedia()将遵守这一点(MediaConstraints) 现在最奇怪的事情是:客户端(Chrome65)只在呼叫方启动视频时协商视频通话。如果呼叫者没有提供他的网络摄像头,我们不会让被呼叫者的网络摄

Video streaming 网上视频聊天

我正在考虑创建一个启用视频聊天功能的网站。这是一个朋友提出的有趣的项目。明确地说,我并不是要把视频聊天记录在谷歌、Facebook或Skype上。我希望它完全通过我自己的服务器运行 我开始在谷歌上搜索信息,没有找到一个来源(我在这里找到了一些),但有一个来源特别让我有疑问: 远溪 Farstream声称是视频聊天实现领域的统一框架(除其他外) 我想知道是否有人有在他们的服务器上实现这个框架的经验,最好是Linux服务器。他们是如何让它与他们的网站一起工作的,等等 或者,如果您知道Farstrea

Video streaming 使用WebRTC实现屏幕共享

我需要使用WebRTC实现屏幕共享。我知道WebRTC支持共享选项卡内容,但我需要共享整个屏幕。 我想到的一个解决方案是经常拍摄屏幕截图,并使用WebRTC数据通道将图像传输给另一方。然后,另一方将在每次收到新图像时更新图像 这有可能实现吗?我特别想知道是否可以使用WebRTC数据通道传输图像 提前感谢。屏幕共享可通过Chrome()中的实验性getUserMedia约束实现 您需要首先在getUserMedia()中启用名为enable screen capture support的标志chr

Video streaming 手动更改HLS带宽?

在HLS中传输视频时,是否可以手动切换带宽?我指的是视频点播,不是现场直播 HLS: 它看起来像youtube切换质量。 还有一种商业产品:你可以,只要你控制播放器和播放器的输入逻辑,包括下载内容、确定正确的比特率流等。这对于许多设备和包括youtube在内的许多应用程序/播放器都是如此。 你不能在iOS上运行。对于iOS,您只能指定PreferredPeakBitRate(AVPlayerItem属性),并且不能(至少现在还不能)手动切换视频流 是的,你可以。但您将有一点清单文件解析 在HLS

Video streaming 从html页面流式传输视频数据

我正在尝试从一个使用计算机网络摄像头的html页面发送视频数据。我想知道如何获取此视频数据并将其发送到我的服务器 谢谢你的帮助。有两种方法 第一种是使用WebRTC,将服务器作为“对等方”。这需要您设置一个在这种模式下工作的服务器,然后对视频进行处理。这很复杂。编解码器是自动协商的。比特率可以更改以匹配当前网络条件。存在NAT遍历(这不应该是一个问题,因为您的服务器将始终能够在自身上打开端口) 一旦你弄清楚了信号,看看gstreamer的WebRTC实现。这仍然是获取服务器端视频的最简单方法之一

Video streaming Live555流媒体服务器RTP丢失数据包重传

live555流媒体服务器是否重新传输丢失的RTP数据包 当我搜索“live555 retransmit”时,会出现一些结果: 2011年。这意味着当时没有这样的机制 2013年。讨论是关于使用编帧器报告的帧持续时间的:“MPEG2TransportStreamFramer”类应该扫描传入MPEG传输流数据包中的“PTS”(时间戳),并使用它来计算每个包的估计“持续时间”。这也意味着重传没有内置到live555中 2016年。答案是,基于RTCP的重传机制,即RFC 4585和RFC 4588

Video streaming 如何使用多个视频流播放视频?

如主题所述,我有一个视频有多个视频流,如何播放此类视频?当我使用ffplay播放时,似乎只有第一个视频流可以播放,如何切换到其他视频流 以下视频信息来自ffmpeg: Duration: 00:00:19.97, start: 0.000000, bitrate: 1538035 kb/s Stream #0:0(und): Video: h264 (High) (avc1 / 0x31637661), yuv420p, 1920x1080, 31211 kb/s, 29.99 fps,

Video streaming 使网页上的视频无法在ReactJS中下载

我正在开发一个网站,在前端使用ReactJS,在后端使用NodeJS,它将显示视频,但要求视频必须不能下载,但应该在线播放。请建议对此的任何解决方案,这不是问题。播放视频需要下载。文件就是文件。客户端下载它。然后,客户端可以播放该文件或将其保存到磁盘。服务器无法控制客户机做什么,服务器在做之前也不知道客户机打算做什么 你能做的最好的事就是签名URL或DRM

Video streaming WDTV Live无法从Windows media server打开mkv文件

几天前我重新安装了Win-7(从32位改为64位),现在我的mkv文件出现了一个奇怪的问题 在更新之前,我使用WDTV Live player从PC上传输视频,一切都完美无瑕。现在播放器无法通过DLNA流从PC打开mkv文件。其他格式仍然可以播放。如果将相同的mkv复制到flashdrive,则可以在PC和WDTV上正常播放。和Windows升级之前在WDTV上播放的文件相同。因此,问题不在于损坏的mkv或网络通信——电脑上安装的编解码器一定有问题 我使用的是K-Lite编解码器包,但升级之前的

Video streaming 使用gstreamer将视频文件从服务器传输到客户端时出错

我正在尝试传输视频并在客户端PC上播放。 管道(服务器端): 很好。 但是现在,我需要从服务器传输一个视频文件,而不是videotestsrc。这是管道: gst-launch filesrc location=movie.mp4 ! ffenc_mpeg4 ! rtpmp4vpay ! udpsink host=192.168.1.16 port=5000 我得到了这个错误: Setting pipeline to PAUSED ... Pipeline is PREROLLING ...

Video streaming 带分段的openRTSP录制

我有一个带RTSP流媒体的IP摄像头。我想用我的树莓皮做录音机。这个想法是: Pi正在启动 开机后,Pi应自动开始记录流并用h.264编解码器保存 当文件达到100MB或1小时时,Pi开始将其记录到新文件中 但我不知道怎么做 我已尝试使用命令: openRTSP rtsp://user:password@192.168.1.108:554/cam/realmonitor -w 1280 -h 720 -f 15 -P 3600 -i /home/pi/nagrania/MyVdeoFFmpe

Video streaming Windows 10物联网核心usb网络摄像头流媒体至浏览器

是否可以将视频和音频从usb摄像头(RPI3)传输到RPi托管的网页,以便使用浏览器在android平板电脑上查看。类似于将Blinky服务器与Windows 10 iot core的USB网络摄像头示例相结合?我完全不熟悉RPi和编程,如何开始使用它?RPI3和Windows 10 iot core可以从USB网络摄像头播放视频,还可以托管一个web服务器。你可以在浏览器中播放。唯一需要解决的一件事是如何将流发送到网页并呈现它。你有没有让它工作过?我想用最新的IoT 10试试

Video streaming Windows Phone 8中的CISCO 2500 IPC流媒体

我正在开发一个WP8应用程序,它需要实现实时视频流功能。到目前为止,我已经在我的应用程序中配置了Silverlight视频播放器。我有(有线)和思科交换机。我可以使用以下URL通过HTTP获取ASF流: http://<username>@<password>.<ip-address>/img/video.asf http://@./img/video.asf 它与Windows 8操作系统上的Windows Media Player、VLC Player

Video streaming 快速和脏播放设置

我正在尝试使用VLC通过非常低的带宽连接解码和显示来自RTSP服务器的H264视频流。这样一来,VLC就可以在最初建立RTP流。但过了一会儿,视频冻结并停止,同时抛出以下错误: main warning: picture is too late to be displayed (missing 2252 ms) avcodec error: more than 5 seconds of late video -> dropping frame (computer too slow ?) l

Video streaming linux中的播放软件

linux中是否有软件为数字视频处理设备生成流 像windows中的streamXpress 有一些,但非常基本,与普通电视频道不太一样。你们应该读这篇文章。它提到并作为Linux的播放系统,但就我个人而言,我会考虑Windows应用程序,因为它更加灵活和成熟(瑞典电视台的12个频道都使用它)

Video streaming 如何流式传输用户生成的视频

我正在寻找一个简单的解决方案,将用户生成的视频流到各种设备上 视频标准似乎仍然是零碎的,因此没有单一的简单解决方案。HLS很有希望,但Android的支持很弱。AWS视频转码器作为一项服务将有助于构建解决方案,但仍需要大量的基础设施和移动部件。Wowza很有前途,但我不确定它是否能满足我的需求 这似乎是一项非常简单的任务,需要有一家成熟的SaaS供应商来完成,但我找不到,也没有找到关于如何自己完成这项任务的详细说明。我会选择它,它支持列出的各种设备,并使用HLS作为备份解决方案。可能是您正在搜索

Video streaming 是否可以在每个房间的p2p webrtc流媒体中捕获和存储视频流?

我遇到了一个名为Zipcall的解决方案 ZipCall通过p2p webRTC连接连接用户流 我的需要是,我需要将每个房间的成员的网络摄像机视频存储在服务器中的单独房间文件夹中 在webrtc p2p room中捕获并存储流的方法是什么?一种方法是使用MediaRecorder记录客户端,然后将文件发送到服务器 要实际记录服务器端,您必须使用SFU(选择性转发单元),例如Mediasoup或janus gateway。然后所有视频流量都将通过服务器,您可以将其连接到ffmpeg或gstrea

Video streaming 流媒体直播视频的最佳方式是什么&;音频

我已经知道如何将视频从iphone传输到cocoa服务器。这很简单,因为视频来自不同的帧,我可以一个接一个地传送它们 1-但音频流是如何工作的,我如何在不中断数据的情况下分离从麦克风读取的数据 2-我如何确保音频与视频匹配,并在两者之间保持计时 这不是重复的,有些问题的标题相同,但细节不同。音频从操作系统缓冲区返回,缓冲区数据块的长度(持续时间部分可配置),您可以像视频一样逐个传输。您可以根据需要排队并重新聚集这些块。如果将标题附加到每个音频传输块,则可以使用时间戳和/或同期视频帧捕获ID标记音

Video streaming 如何使用Java在NAT后执行P2P流视频

我们有一个应用程序,它使用XMPP在两个客户端之间进行通信;目标系统和智能手机(Android或iPhone)。两个客户端在XMPP服务器上使用相同的帐户来查找和发送消息。这种架构工作得很好,但现在我们需要设置流视频(目标到电话)。使用XMPP速度太慢,因此需要一个对等(P2P)解决方案。由于两个客户端(目标和电话)都位于本地网络路由器之后,因此解决方案需要处理NAT/防火墙穿越,从而需要使用TCP来确保数据包按顺序传递 使用另一个公共服务器,我们可以获得客户端路由器的全局IP地址和端口。此信息

Video streaming HTTP直播-获取播放链接

我想根据带宽跟踪正在播放的链接 对于exmaple m3u8,文件包含: #EXTM3U #EXT-X-STREAM-INF:PROGRAM-ID=1, BANDWIDTH=1950000 http://link1.M3U8 #EXT-X-STREAM-INF:PROGRAM-ID=1, BANDWIDTH=1500000 http://link2.M3U8 #EXT-X-STREAM-INF:PROGRAM-ID=1, BANDWIDTH=1200000 http://link3.M3U8 #

Video streaming Gstreamer从流中提取帧

我正在尝试通过网络传输视频。目前我正在使用gstreamer。然而,一旦它到达网络的另一端,我需要能够在框架中添加一些东西 我想知道是否有一种方法可以从流中提取一个帧,修改它,然后将其插入到要显示的流中。如果它不能插回蒸汽中,那么我可以使用不同的方法来显示帧,这是我真正需要弄清楚的提取 帧操作将使用python完成,一旦我有了正确的gstreamer命令,我将尝试在pygst中实现它 发送视频的代码: gst-launch-0.10 v4l2src device=/dev/video0 ! 'v

Video streaming VLC播放过去的网络流?

我有一个可以工作的h264视频流服务器解决方案,通过管道将视频输出到netcat。 流媒体服务器是一个带有摄像头模块的Raspberry Pi raspivid -t 999999 -w 300 -h 300 -hf -fps 20 -o - | nc -l 9999 在客户端linux下,将netcat输出传输到mplayer时,我几乎没有视频延迟(~100ms) 这正是我需要的。现在,因为我还想要一个Windows客户端,所以我尝试在VLC上播放流 媒体->打开网络流 网址:tcp://i

Video streaming 如何在桌面应用程序上使用WebRTC?

我想使用WebRTC技术将视频流从桌面应用程序传输到Chrome或Firefox 到目前为止,我只看到很多使用HTML5和Javascript的WebRTC教程,这些教程只在Chrome或Firefox上运行。桌面应用程序还是本机应用程序 如果我想开发这些应用程序,我可以使用什么方法或库来实现这一点?本机WebRTC库: WebRTC本机API(C++) π介子(Go) RawRTC(C++) aiortc(Python) GStreamer(C) webrtc rs(生锈) 巫术 进入社区

Video streaming 实时摄像机流媒体

我正试图开发一个应用程序来做实时流视频和音频监控服务 从iPhone、iPad或iPod捕获相机,并在其他设备(如iPhone、iPad或iPod)上实时显示 同时,我希望允许两个(或更多)设备之间同时进行音频通信和数据传输 据我所知,Bonjour、GameKit和NSStream允许通过wifi或蓝牙在设备之间传输数据 到目前为止,我一直使用AVCaptureSession(来自AVFoundation)从相机捕获并发送每一帧 使用GKSession(从GameKit)连接到其他设备(蓝牙或

Video streaming nginx RTMP,仪表板

我正在使用rtmpNginx创建Dash。 我创建了segmets: [SND] 1464729671819-init.m4a 31-May-2016 23:55 557 [ ] 1464729671819-init.m4v 31-May-2016 23:55 659 [SND] 1464729671819-raw.m4a 01-Jun-2016 00:13 0 [ ] 1464729671819-raw.m4v 01-Jun-20

Video streaming 将流式服务器与onvif协议集成

我已经在我的raspberry pi上设置了一个流媒体服务器,通过网络流媒体传输我的相机,我可以使用一个url流媒体传输相机,就像我想建立在这个url上一样,以使相机符合onvif标准,我如何继续? 谢谢。您可以使用“”,尽管我没有使用它进行测试。 由“”找到的结果 有一件事你需要知道。 您应该考虑设备满足与兼容“配置文件S”的ONVIF客户端(VMS/NVR)进行交互操作的要求 众所周知的ONVIF客户端是“”,也称为ONVIFDM感谢您指出这一点,这满足了我对raspberry pi的需求,

Video streaming 与fMP4、hvc1或hev1一起使用的HEVC编解码器标签是什么?

如何选择正确的编解码器标签来使用(hvc1或hev1)将HEVC视频混入片段化MP4,以便使用MPEG-DASH/HLS进行流媒体传输 根据ISO/IEC FDIS 14496-15的规定,根据标签的不同,我认为muxing有细微的差别: 当示例条目名称为“hvc1”时,对于所有类型的参数集数组,数组_完备性的默认和强制值为1,对于所有其他数组,为0。当示例条目名称为“hev1”时,所有数组的数组_完备性的默认值为0 除了这个还有别的吗 为什么有两个标签?在这两个标签之间选择的标准是什么 旁注:

Video streaming 可伸缩视频站点的堆栈是什么?

如果您正在创建一个具有类似于youtube功能的网站(这不是另一个克隆,它只是有一个具有类似功能的片段)。您将使用什么堆栈来开发和允许可伸缩性 基本上,我不想做构建它的工作,只想发现当我有x个在线用户时,我不得不放弃一切以允许它扩展 我主要是一个.Net开发人员,所以如果可以从中创建一个可伸缩的解决方案,那将是理想的 显然,我最关心的是带宽。现在,我正在寻找一种可以为单个服务器编写的方法,并且可以轻松地添加更多内容 建议?想法?您通过使用Amazon S3等服务来托管视频来解决带宽问题。它们可以

Video streaming Can';t让gstreamer生成去隔行扫描视频

背景: 我正在从Bosch VideoJet x40网络视频编码器传输视频。 它最多读取4个模拟摄像机输入和输出RTP流 我正在提供一台旧录像机的测试镜头(拯救列兵Ryan!),使用一个黄色的 连接到网络编码器输入的视频复合电缆 这些RTP流在UDP/RTP上作为H.264编码视频发送 小包裹YUV I420颜色空间中的编码视频数据 我的gstreamer管道读取RTP数据包,将它们从YUV转换为原始RGB,然后保存它们。迄今为止,它在这方面工作正常: gst-launch --gst-de

Video streaming H264 NAL单元前缀

我需要一些关于H264 NAL单元分隔符前缀(00 01和00 01)的说明,我正在使用Intel Media SDK生成H264并将其打包到RTP中。问题是,到目前为止,我只寻找00 01作为单位分隔符,基本上只能在比特流中找到AUD、SPS、PPS和SEI单位。查看内存,我发现SEI之后有一个字节序列00 01 25,可能是IDR单元的开始,但我的搜索算法没有检测到它,因为缺少零字节。有谁能澄清00 00 01和00 01前缀之间的区别吗?看一看,第一台机组以及AUD、SPS、PPS和SEI

Video streaming 随时间进行互联网速度测试以测试稳定性?(例如,>;10分钟) 问题

一位朋友问,在线视频教学是否可以使用~20Mbps下载速度、~15Mbps上传速度、~40Ping。我说绝对 但是使用的速度测试只测量了大约10-20秒的时间段内的这些统计数据-如果互联网在任何给定的较长时间段内经常不稳定(例如,它可能会在短时间内退出,每次10秒,每小时可能会发生多次) 是否有任何基于web或桌面的软件,或一些python脚本用于测量互联网连接在某段时间内的稳定性>10分钟(理想情况下为一小时或更长) 注 如果这是一个A/B问题,最终的目标是有信心地确定特定的internet连

Video streaming 直播选项

我想知道,当人们可以使用skype或tokbox(如果想要定制的话)用音频播放视频时,为什么他们会使用流媒体技术,如Flash media server和其他服务 有什么东西阻止人们使用免费服务吗 关于你不能用Skype之类的服务向成千上万的观众发送流媒体,他们是为一对一(或某些)交流而设计的

Video streaming 如何从中嵌入流http://tv.majorleaguegaming.com 在网页上?

与Youtube或任何其他流媒体或视频服务不同,MLG似乎没有内置的嵌入按钮。我是否可以将其嵌入我的网页?谢谢。看来MLG通过添加iframe嵌入了他们的流。例如,他们使用了: <iframe width="672" height="378" src="http://tv.majorleaguegaming.com/player/proofy?aid=mlg52_1" scrolling="no"></iframe> 您应该能够以同样的方式将其复制到您的站点。知道我

Video streaming 使用视频工具箱解码iOS 8中的h264

需要解码h264流并获取像素缓冲区 我知道在iOS 8上使用视频工具箱是可能的 1.如何将h264流转换为CMSampleBufferRef 2.如何使用视频工具箱进行解码?我假设您得到的流是附录B格式的,如果它已经是AVCC格式(阅读MP4),那么您可以使用AssetTreader,无需做太多工作 对于附录B流(ppl通常称之为原始h264流) 提取SPS/PPS NAL单位并从中创建参数集。你会定期收到它们。它们包含关于解码帧应该如何解码的信息 创建具有持续时间(您可以从分析SP的VUI部分

Video streaming 带PlayRead的三星智能电视流媒体MPEG DASH

我尝试在Orsay TV(Tizen之前的三星TV)上播放流(带有PlayReady的MPEG-DASH)。未加密的破折号工作正常。我试图严格按照DRM Today手册(这是我的DRM提供商)获得许可证,但播放没有开始,过了一段时间我出现渲染错误,或者根本没有流。CustomData是根据DRM提供商规范生成的,可在其他平台和设备上使用。由于DRM提供程序手册的原因,它是base64哈希到customDataBase64的 <object id="pluginPlayerSef" clas

Video streaming 实现双向web视频会议功能的最佳方法?

我想开发一个网站,提供双向网络视频会议功能?在56 kbps的internet连接上,视频延迟不应超过1秒 我只知道JMF(Java媒体框架)的名字 问题1。我还可以使用哪些API来实现这一点 问题2。在这些API中,您认为哪些API不会在56kbps的internet连接上增加超过1秒的延迟 由于所有的API对我来说都是新的,而且这是一个非常紧迫的项目,我不能去尝试每一个API,因此如果有人在这方面有实际经验,我将非常感谢他/她的帮助。有很多使用jmf的java视频会议开源项目 我提供给你一个

Video streaming 这种MIME类型是什么';视频/3gpp;编解码器=avc1.42E00C,mp4a.40.2“';?

我必须处理这些mime类型的字符串 对于“avc1.42E00C”,我猜“avc1”是指H.264编解码器,“42E00C”指定编解码器版本或配置文件 我在哪里可以找到可靠的信息 如果很难获得完整的规格/列表,那么只有“avc1”和“mp4a”相关信息将非常有用给你 有关“可靠性信息”,请查看参考资料。也许你得把它翻个底朝天 基本上,您看到的是: 42是基线配置文件(我不确定,但我从未在这里看到过H264的另一个数字) 80是约束集。(这很复杂,我不太明白,但它需要压缩方法等)。我“认为”pa

上一页   1   2   3   4    5   6  ... 下一页 最后一页 共 20 页