Video streaming 如何减少vlcj在java中播放rtsp实时视频流的延迟

我开发了一个视频聊天应用程序,但视频显示延迟很高。视频通过rtsp流。如何减少播放rtsp流的延迟?您使用的视频编解码器是什么?您应该能够将延迟减少到,目前您必须这样配置 String[] options = { ":file-caching=0", ":network-caching=300", ":sout = #transcode{vcodec=x264,vb=800,scale=0.25,ac

Video streaming 如何阻止IDM获取视频/音频

每次视频/音频流启动时,都会感觉页面上有多媒体内容,并允许您下载该多媒体内容 我认为阻止IDM抓取视频/音频是不可能的,但有没有办法欺骗IDM获取错误的视频,或者让IDM很难猜测哪个是真正的视频/音频播放 编辑: 实际上,我的问题是从服务器端的角度来看的,而不是运行IDM的客户端。所以我想这里的误解是我的错。这里有很多很好的答案,但不是我想要的答案。您可以通过两种方式阻止IDM开始下载 第一种方法是指定IDM应该自动抓取的文件类型,这样就可以排除特定的文件类型,例如“MP3”或“MP4”。 要进

Video streaming MPEG-TS中PCR的准确性误差

什么是PCR准确度误差 我正在开发一个应用程序,它从TS中提取特定的程序,对它们进行多路复用,生成流CBR并传输它们 为了生成流CBR,我在输出TS中插入空数据包 但在分析仪上,我得到的误差像PCR-U误差。什么会导致此错误 我认为我的逻辑添加空值使CBR是完美的。您可以在附件中看到这一点 请在这方面帮助我。是否对空数据包使用PID 0x1FFF?或者你正在用空的有效载荷创建视频包?如果您在创建没有有效负载的视频包,我可以看到这个问题发生 是否对空数据包使用PID 0x1FFF?或者你正在用空

Video streaming 如何通过web应用程序获取RTSP流

假设这是我的视频流URL: rtsp://MyUserID:MyPassword@45.113.153.42:556/cam/realmonitor?channel=1&subtype=0 视频流与VLC播放器完美配合,但我希望它通过我的web应用程序播放。是否有可能在任何web播放器中使用RTSP协议?当然! 您可以在web应用程序上使用VLC player 此链接包含您需要的所有信息 根据我的经验,这个插件真的很快,是一个可靠的不幸的是,通过web浏览器玩rtsp不再那么简单了

Video streaming 您今天会选择哪个视频流平台?

我们已经决定,是时候抛弃在我们的网站上部署视频的临时方法,选择一个或多个视频平台来为我们处理这项任务。高层次的要求是: 需要有一个易于安装和嵌入的播放器 需要上传和转换现有视频 需要有强大的分析,最好与谷歌分析集成 需要能够“录制”视频(即视频点播)和直播流(即直播事件) 其他一些可能导致天平倾斜的因素: 移动友好 多比特率流 灵活的API 自己主持这项活动不是一个选择——我们只是没有人力来关心/喂养它。价格不是主要目标 那么,你会选谁呢?我在Kaltura.com有过一些经验,总的来说

Video streaming .h264示例文件

我目前正在使用文件,但在测试程序时出现了一些错误。我只是想看看它是只对这个文件还是对所有其他的.h264文件失败。那么,是否有其他来源可以下载(标准).h264示例文件进行测试 谢谢。这是一部经典的测试电影: 这是一部经典的测试电影: 选项1:使用x264制作您自己的。这些不是标准的示例文件,但您可以控制它们使用H.264的哪些部分,例如不同的配置文件/级别/等,使它们仅为I帧,使它们仅具有特定的宏块类型,等等。您还可以使它们很小,例如一帧或几帧长 选项2:也许JM软件附带了一些示例文件 选项3

Video streaming 基于QtQuick的实时视频流

我希望在我的QML/QtQuick应用程序中以尽可能接近实时的方式传输视频 我测试过: import QtMultimedia 5.0 Video { source : "http://mysource" } 使用vlc作为服务器(0ms缓冲区)和stream-m,两者的延迟都高达30秒。所以我的问题有两个: QtQuick支持哪些媒体流格式 我应该使用什么类型的媒体来流媒体;比如说我的网络摄像头,尽可能接近实时 AFAIK答案完全取决于使用了哪一个(例如GStreamer,VLC)。因此

Video streaming m3u8文件内容顺序

我有一个m3u8文件,不知道文件/URL的顺序是否重要 #EXTM3U #EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=450000,RESOLUTION=448x252 448x252_450.m3u8 #EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=800000,RESOLUTION=624x352 624x352_800.m3u8 #EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=12000

Video streaming 如何同步视频流和其他评论信息?

我需要同步一个视频流和一些相关的信息流,基本上是视频中的一些标记位置。所以我可以在视频帧中画出标记,然后一起播放 那我怎么办 是否要“覆盖”现有流上的信息?@SamerTufail是的,我需要逐帧同步信息。因为在我的应用程序中,视频中几乎没有移动的项目。我想点击客户端的项目。并将项目索引发送回服务器。gstreamer是否为您的选项?@SamerTufail是。我只需要满足要求。无论我使用什么工具。我建议你先安装gstreamer,先阅读一些关于gstreamer的常见问题解答。Gstreame

Video streaming tokbox调节开关关闭/打开订阅者';s视频/音频

我希望能够打开/关闭会话中用户的音量。例如,在3人的集体面试中,我应该能够在谈话时降低一个人的声音。或者当有人发出嘶嘶声时,我应该能够缩短它,并在必要时重新打开它。我查阅了Tokbox的文档,只看到了两种调节方法 () 首先是强制用户断开连接 第二个是中断用户的广播(在这种情况下,我无法将用户链接回广播)。TokBox开发者福音传道者 主持人令牌不允许您禁用其他流,因为您可以通过调用publishAudio(false)停止发布音频,或者通过调用subscribeToAudio(false)停止

Video streaming 将H.264数据作为实时流从非DirectShow视频捕获卡发布到FMS(Red5)

我不能在这里使用FMLE(Flash Media Live Encoder),因为视频捕获卡没有directshow支持 视频捕获卡捕获视频,然后通过卡上的剪辑将视频编码为H.264 该卡提供了一些本机接口,因此我可以编写应用程序从卡中获取数据,并将数据发送到FMS/Red5,然后再发送到FMS/Red5 我的问题是: 如何在RTMP协议中将H.264数据发送到FMS 我已经阅读了RTMP规范,了解如何发布实时流 连接->创建流->发布->元数据->视频数据 但我不知道我到底需要为元数据和视频负

Video streaming 视频聊天的媒体服务器

我使用red5作为视频聊天的媒体服务器,但它消耗了大量资源,我有768 MB的brust ram和512 MB的专用ram,但仍然面临错误:无法分配内存。我正在寻找任何可以利用我现有资源的替代解决方案 是否有任何媒体服务器在您的知识,请分享。谢谢遗憾的是,这可能是您在硬件方面必须克服的问题。Red5是基于Java的,这自动意味着它有点占用资源,因为它的体系结构。然而,仅仅是您正在拍摄视频帧,可能是转码,然后提供视频/音频提要,这就意味着您将需要大量的即时内存供服务器使用。我宁愿升级RAM(512

Video streaming 使用javacv将视频流传输到rtsp服务器

我正在使用java CV进行视频流。我从网络摄像头捕获了视频。但当我试图将视频流传输到Darwin服务器时,它失败了。代码是 package streamingapp; import com.googlecode.javacpp.Loader; import com.googlecode.javacv.CanvasFrame; import com.googlecode.javacv.FFmpegFrameRecorder; import com.googlecode.javacv.Frame

Video streaming 使用Adobe Media Server和FMLE的RTMP实时流媒体中的时间码/时间戳

我试图通过FMLE将视频流传输到Adobe media server(使用RTMP),并使用JWPlayer在我的网站上播放。我可以成功地流式传输视频,但我知道我想在流上获取时间戳/时间码。Adobe media server和FMLE是否支持这种用例?如果没有,还有其他方法可以达到同样的效果。如有任何意见/建议/指点,不胜感激 提前谢谢 问候 DeepakFMLE拥有它,我打赌Adobe Media Server也拥有它。参见时间代码;) 您可能可以使用JW播放器的API来查看使用onTime

Video streaming 摄像头支持多个音频流

我有一个摄像头,它可以支持两个不同编解码器的视频流,并且两个视频流都有不同的设置 除了摄像头上的视频流配置外,我还可以配置音频流。然而,我不确定改变播放器中的视频流是否也会改变相应的音频流 我想知道这是否可行,以及相机不支持这一点的原因。播放器与相机有什么关系?你能详细说明你到底在做什么吗?这台相机是连着的。。。通过USB?您选择的视频编解码器带有。。。什么API?而且,这台相机正在做音频编解码器?它不仅仅是发送PCM样本供您的软件编码?这将是一个非常奇怪的摄像头。@Brad问题是,这个摄像头被

Video streaming 使用Kurento Media Server向多个WebRTC客户端广播多个视频流?

我不熟悉视频流,我一直在阅读媒体服务器,以便更好地了解它们的工作原理。我的一位客户计划购买大约48台摄像机,安装在他们的设备中。他们还没有决定摄像机的型号,但我知道他们正在考虑的一种型号是以WebM格式输出视频(VP8和Vorbis或Opus)。如果我理解正确,这种视频格式可以在支持WebRTC(如Chrome)的浏览器中观看,而无需任何插件。我的客户理想情况下希望他们的用户连接到一个网站,进行身份验证,然后查看网格中以极低分辨率显示的所有48个视频流。选择一个特定的视频流将以全分辨率显示该流(

Video streaming 如何在videojs上播放自定义视频扩展

我想更改*.ts扩展名,以阻止某些下载管理器捕获我们的内容。目前我正在使用Videojs来流式传输视频(HLS),但当更改*.ts->*.abc时它无法播放。我知道其他基于HLS和Videojs的流媒体服务可以做到这一点。有人能告诉我怎么做吗?谢谢当您更改扩展时,可能是您的服务器设置了正确的内容类型标题。您可以尝试对videojs的hls技术类进行子类化,并创建可以处理这些扩展的自定义类。

Video streaming 英特尔图形硬件H264 MFT ProcessInput调用在输入少量输入样本后失败,同样适用于Nvidia硬件MFT

我正在使用DeskTopReplication API捕获桌面,并在GPU中将示例从RGBA转换为NV12,然后将其输入MediaFoundation硬件H264 MFT。这适用于Nvidia graphics,也适用于软件编码器,但在只有intel graphics hardware MFT可用时失败。如果我回到软件MFT,代码在同一台英特尔图形计算机上运行良好。我还确保编码实际上是在Nvidia图形机的硬件中完成的 在Intel graphics上,MFT返回MEError(“未指定错误”)

Video streaming 检测MPEG TS流中的视频帧类型

我试图提取TS数据包中帧类型的信息。 我使用FFMEPG发送MPEG TS封装的视频(用x264压缩),在另一端,我用Wireshark记录接收到的数据包。我的数据包长188字节,相当于一个MPEG TS数据包。现在我需要找出哪些TS包携带I、P或B帧数据 我试图在我的数据(00 01 00)中检测图片标题,基于以下帖子: 但是我找不到它。我只能注册PES数据包的开始(00 00 01 E0)。 我完全搞不懂格式。PES的哪个部分表示TS数据包传输的是哪种帧类型 谢谢。只需捕获ts表单中的所有内

Video streaming 在xamarin项目中提供视频通话的功能

为什么xamarin不支持facetime?如果我想在应用程序中进行视频调用,那么支持xamarin的最佳第三方API是什么?没有facetime API。Xamarin无法支持不存在的东西。关于工具推荐的问题与SO无关。谢谢你的澄清,但你能告诉我ios和android应用程序的视频流应该怎么做吗。谢谢你,Jason,你知道有没有已经存在的示例应用程序吗?ABPersonViewController也有xamarin,allowsActions属性将带来facetime,它解决了视频流的权利。为

Video streaming 如何在局域网上实时播放视频流?

我正在尝试建立一个能够将一台电脑的屏幕截图广播到局域网上其他几台电脑的系统 到目前为止,我成功地在带有rtmp模块的Raspberry Pi上安装了nginx,并且我可以通过OBS将Raspberry作为rtmp服务器进行流式处理。我用VLC观看这条小溪 问题就在这里。进行广播的主pc将显示一个倒计时计时器,并可能提供摄像头,因此最好将广播延迟保持在最小(实时?)。我目前在屏幕上发生的事情和流之间有4-6秒的延迟,我正在寻找进一步减少延迟的方法 有没有办法确定延迟时间中有多少是由于编码造成的,

Video streaming Wowza直播流仅允许视频和停止音频流

我正在从ip cam获取wowza实时流,流运行良好,但在我的情况下不需要音频流,有人能告诉我如何在wowza实时应用程序中禁用音频流并仅获取视频流吗 如何打开/关闭音频和视频曲目 您可以通过添加rtspStreamAudioTrack和rtspStreamVideoTrack自定义属性来关闭音频或视频曲目 在中: rtspstreaudiotrack 假的 布尔值 它就在那里的房间里 <Property> <Name>rtspStreamAudioTrack

Video streaming gstreamer管道中的rtpjitterbuffer

我目前正在调试一对gstreamer管道,涉及Jetson TX2发送和接收音频和视频。我正试图找出是什么原因导致了TX2流中的图形瑕疵,其中通过rtp捕获和流式传输h264(本机生成h264流,TX2仅负责加载和发送)的摄像头。在视频接收管道上线之前,该传输流的性能是可接受的,此时传输流的视频质量急剧下降 我已经在接收桌面上设置了一个动态gstreamer管道,它记录调试语句,并利用延迟为0的rtpjitterbuffer来监视TX2正在传输的流上的统计信息 传统的gstreamer智慧是,向

Video streaming 如何流式处理gnome窗口的内容

我在Gnome/Ubuntu中打开了一个窗口,我想把它的内容流到一个网站上。有人知道怎么做吗 我对几乎任何编程语言都持开放态度,只要它能完成任务。有一个GTK+HTML后端,它仍在开发中。后端称为百老汇。此后端在webbrowser中运行应用程序,但您可以检查代码以获得所需的内容。检查。是您正在编写的应用程序的窗口部分,还是必须从单独的程序中执行?它是一个单独的程序,可以从我的命令中生成视觉输出。然后我会寻找一些可以让您拍摄屏幕截图的内容。请记住,这会将网站一次限制为一个查看器。当第二个人浏览该

Video streaming 如何使用HTML5视频元素流式传输视频

我正在尝试使用HTML5元素创建一个类似的视频横幅 在我的网站上,视频只有在下载完整个文件后才开始播放。与BKWLD()相比,浏览器下载了前几帧后,它们就开始播放,然后继续播放 如何实现此流式处理?您没有指定内容类型。如果mp4(我相信还有mov),你可以把moov原子移到视频的前面。我用ffmpeg来做这个 ffmpeg-y-i“#{infle}”-movflags faststart-codec:v copy-codec:a copy“#{outfile}” 这通常非常快,因为它不需要视频或

Video streaming 使用PubNub';什么是API?

我正在使用PubNub的WebRTC API进行视频和音频对话,这很有魅力。接下来,我想将屏幕共享添加到我的应用程序中,但我在他们的文档中找不到任何有用的信息,反过来,他们有几个地方提到的选项 我现在使用的代码是: var phone = window.phone = PHONE({ number : $('#user_email').text() || "Anonymous", // listen on username line else Anonym

Video streaming ParseJson错误Roku

我正在解析JSON数据。我正在使用Roku OS 7.0 我的代码: if (code = 200) json = ParseJSON(msg.GetString()) 但它抛出“ParseJson:Unknown Identifier Error”。如何解决这个问题?只需打印msg.GetString()获取的字符串,然后使用JSON验证程序进行验证 请确保ParseJSON函数参数中没有正确的JSON字符串 另外,确保对从服务器获取的任何数据使用无效检查,以避免Roku中的应用程序崩溃。m

Video streaming 微软媒体基金会H264无损模式

我发现h264编解码器可以在无损压缩模式下工作。但是微软媒体基金会支持吗?如果是这样,如何将此编解码器的压缩模式从有损切换到无损?Windows附带的H.264编码器的软件实现仅限于H.264配置文件,不提供无损编码选项。据我所知,在X264编码器中可用的高4:4:4格式具有无损编码选项,但是它不提供媒体基础变换形状因子。利用相应的包装媒体基础API和X264,结合媒体基础,生成无损编码的H.264视频。

Video streaming 谷歌互动媒体广告的广告标签示例

我想知道如何使用谷歌IMA在Android上的视频中显示广告。SDK可从以下站点获得: 虽然示例应用程序可以工作,但随其提供的示例广告标签URL不工作。如果没有标签,则无法显示URL广告,如果没有标签,则很难使用API进行构建和实验。我一直在尝试搜索一个有效的示例广告标签URL,但没有成功 Android示例(以及HTML5示例)提供的添加标记URL为: 对于已启用adblock的用户: ad[dot]双击[dot]net/pfadx/AngelaSite;kw=HTML5线性或非线性;sz=

Video streaming 使用vlc到html浏览器的流式mp4

我无法将网络摄像头图片(没有声音)流式传输到html页面。我正在使用最新版本(适用于windows的v2.0.2 vlc)进行流式处理,下面是命令行: "c:\Program Files (x86)\VideoLAN\VLC\vlc.exe" -I dummy dshow:// --dshow-vdev="Logitech QuickCam Chat" --dshow-adev=none --dshow-caching=0 --sout=#transcode{vcodec=h264,vb=10

Video streaming 什么会导致HLS流停止传输?

我正在制作三星智能电视应用程序。我正在尝试以三星支持的HLS格式播放一组24小时的歌曲流。然而,当我播放流时,它播放得很好,但是当一首歌结束时,流似乎停止在播放器上播放,就像它停止接收内容或停止播放内容一样。我知道流仍然在工作,因为它仍然在我们的主网站上播放 你知道为什么会这样吗 这是我在三星的格式化方式: var videoUrl = 'http://mox.tv/hls/moxtv-a.m3u8|COMPONENT=HLS' 我正在尝试使用window.deviceapis.avplay;

Video streaming 如何从数据库而不是静态文件获取Video.js加载源

我试图在我的网页中使用Video Js项目,到目前为止,我看到的所有示例都需要使用服务器上某个位置的静态文件,因此如果用户检查网页的源代码,他们可以轻松下载视频文件。我希望将视频文件存储在数据库中,而不是像那样使用video js,我希望通过进行ajax调用在网页中对它们进行流式处理。有没有办法做到这一点?您可以将对视频的引用保存在数据库中,然后将其动态加载到播放器中。例如,当您请求特定视频时,您可以从服务器返回如下内容: GET /videos/1234.json { "title":

Video streaming 直接播放任意流到电视-需要澄清概念

背景: 从最终用户的角度来看,我非常熟悉DLNA服务器(至少在Linux上)。我和、和玩过。所有这些似乎基本上都为DLNA兼容(?)客户端提供了一个UPNP可发现文件系统: 我已经了解了PS3媒体服务器和服务是如何(几乎)使用FFMpeg和/或Mencoder进行动态转码的 我研究了如何在视频容器格式中捏造细节,通过DLNA实现“实时”流媒体 我在Servio上使用了各种IPTV频道的流媒体服务,最近进行了一些改进(在这里,librtmp做了大量工作来验证和下载rt[ms]p(e)流,并进行转

Video streaming 如何使用HM编码器通过运行和调试来编码视频文件,而无需进入命令提示符

我是新来的。我在MS VISUAL STUDIO EXPRESS 2013中重建并调试编码器。我将输入文件和配置文件保存在TAppEncoder.exe所在的同一文件夹中。要对输入的视频文件进行编码,我必须进入命令提示符,然后输入命令作为输入。但我想要的是重建和调试,并获得视频文件的编码版本,而无需进入命令提示符。这可能吗?提前感谢您的问题是MS VS或MS VC的通用功能,与H.265或HM无关。 构建HM应用程序后,只需执行Ctrl+F5即可运行构建的应用程序,而无需调试,即直接进入。 如果

Video streaming 视频流与视频文件传输

通过usb将视频从某个本地站传输到远程站时,可以通过以下几种方式进行: 以文件形式传输视频,使用与传输常规文件相同的方法。 使用视频流传输方法(如MPEG-2传输流)传输视频流。 我不认为第二种选择可能会更好地解决最新问题,即远程站点何时将同时播放视频 但在许多其他情况下,没有此类延迟/实时要求,即有人稍后会观看视频 我想问的是,在这种没有延迟和实时要求的配置中,第一个appraoch更好。您可能会在超级用户上发现这个问题,而不是堆栈溢出,因为这个站点是用于编程问题的。我可能会就超级用户向您提供

Video streaming 如何在Kurento Media Server中禁用视频编码?

我使用Kurento媒体服务器进行视频流,我有h264视频源通过RTSP。我正在使用下面的代码创建PlayerEndpoint pipeline.create('playerdpoint',{uri:'rtsp://hostaddress:8554/stream,useEncodedMedia:false},函数(错误,_playerdpoint){ 但它仍然将h264转换/编码为VP8,编码需要更多的处理。所以我在视频流中得到延迟。我只想直接流h264视频,而不转换/编码为VP8。我认为Fir

Video streaming 如何从浏览器中辨别使用的视频传输协议?

网页中的视频可以通过不同的协议传送,如MPEG-DASH、HLS、WebRTC等。是否有一种从浏览器了解所使用协议的方法 如果我们谈论的是纯流式视频传输,即通常受保护的内容或预先编码的内容。通常使用三种主要的输送机制: 简单的“HTTP”流。当有人放置MP4或其他可播放的视频文件,并简单地将其链接到标签中时,就会发生这种情况。如果您查看浏览器开发工具的“网络”选项卡,它应该相当明显,因为您可以看到对单个文件的请求 Safari和Edge还特别支持直接在标签中使用苹果的HTTP直播,这在一些An

Video streaming 视频/音频流(youtube、spotify等)如何不下载数据?

思考这个问题,在谷歌上找不到任何关于它的信息(很容易)。这不是我的专业,所以我在寻找一个技术性但简单的答案 如果没有可下载的数据格式,音频/视频流是如何传输的?不是 所有这些媒体数据在播放时都会被下载。使用基本代理工具、浏览器扩展、自定义脚本等,可以轻松保存这些数据 充其量只能使用DRM系统对媒体进行加密。这可以防止在网络级别直接复制可播放的媒体数据,但当然,媒体必须解密才能播放。而且,在解密后,它会被重新录制。不是 所有这些媒体数据在播放时都会被下载。使用基本代理工具、浏览器扩展、自定义脚本等

Video streaming 枚举相机特性集的UVC特性项

我正在使用IKsTopologyInfo和IKsControl界面枚举相机的UVC属性。我正在使用MFT和Direct Show这段代码。在枚举过程中,我会得到各种GUID,例如CLSID_IAMCameraControl、CLSID_IAMDevideoProCamp和更多 现在,IAMVideoProcAmp支持10,IAMCameraControl支持7 并非所有摄像头都支持所有属性项。我想知道任何摄像头支持的确切属性(枚举索引/值)。我们可以使用IKsTopologyInfo和IKsCo

Video streaming 视频流中的导航,golang中的反向代理

我正在测试go中的反向代理。主要用于通过底层nginx播放视频,以及从其他后端服务器播放流式视频 问题是在浏览视频时。例如,当通过代理播放vlc时,视频正常启动,但在尝试导航时停止。但是如果我直接从nginx播放这个视频,效果很好 我原以为on navigation player会创建带有Range:N-标题的新连接,但只有在再次启动视频时才有新连接 问题: 播放视频流时,播放器如何导航?它向服务器发送什么请求? 也许我在处理连接时遗漏了什么 这是一个非常基本的测试版本,它从本地nginx流式传

Video streaming Video.js/Contrib HLS在大多数浏览器中不播放HLS(代码:4 MEDIA_ERR_SRC_not_SUPPORTED)

我有一个视频播放器,我正在建设,需要发挥HLS现场和点播流 它似乎只在狩猎中工作得很好。(减去我需要更新的自定义样式,忽略它) 在所有其他浏览器中,我都会遇到以下错误: VIDEOJS:ERROR:(代码:4媒体\u ERR\u SRC\u不受支持)无法加载媒体, 可能是因为服务器或网络出现故障,或者是因为不支持该格式。 我错过了什么?看起来与contrib hls演示页面实现非常相似,它在所有浏览器中都能正常运行 这是回购协议:要查看的分支是功能最新版本 为了进行测试,我实际上使用了从vid

Video streaming 不从流媒体引擎本身提供MPD服务

我有一个http服务器、流引擎服务器(Wowza实例)和一个带有Dash.js播放器的web客户端 为了播放视频,播放器应该接收mpd文件的URL 在我当前的体系结构中,mpd文件是通过对http服务器的GET请求提供的 服务器依次处理另一个对流引擎服务器的GET请求,以接收返回给客户端的mpd文件 问题是,播放器无法播放此mpd,因为它还希望短划线块出现在HTTP服务器本身上,而不是直接访问流引擎 有没有办法仍然从HTTP服务器提供mpd,然后告诉播放机直接与流媒体引擎(针对区块)而不是服务器

Video streaming colab中的实时视频

是否可以在colab中运行实时视频以进行对象检测?或者如何在谷歌Colab中连接CCTV摄像机dvr/Nvr进行目标检测 我无法从Google colab获取视频提要(rtsp流) 在Colab的捆绑代码片段中有一个实时摄像机捕获的示例:请参阅。根据您希望对流执行的操作,您可以使用类似的方法。欢迎使用Stackoverflow。我们目前无法帮助您回答您的问题。到目前为止你尝试了什么?试着给我们一个机会。此外,我邀请您阅读此链接,以改进您的问题。是否有任何方法可以让网络摄像头继续捕获并提供这些信息

Video streaming Exoplayer更改hls的重定向设置 在ExoPope中,当使用HLS时,玩家查找.M3U8从.T3CK中取而代之,而不是在第一个URL中,因此如果中间有重定向,则在最后一次重定向中搜索文件。

例如,如果从中提取.m3u8,但此链接重定向到其他方向,则.ts不会在第一个链接中提取,而是在第一个链接重定向到的链接中提取 问题是,如何让exoplayer始终使用第一个链接? 以任何方式播放hls视频。此讨论可能有助于:

Video streaming WebGL中的视频聊天

我想开发一个包含投影仪的虚拟教室,用于演示power point的幻灯片和视频聊天。所有这些工具都将使用WebGL开发。 是否有可能在我的项目中加入视频聊天,并“使用VNC小程序”展示power point的幻灯片。谷歌和其他公司正在积极开展一些工作,将其作为标准化的web API添加到点对点聊天中 对于VNC,您可以查看哪个是HTML5(Canvas,WebSockets)VNC客户端。(免责声明:我制作了noVNC) 更新: 您可以在WebGL中使用视频和画布数据作为纹理,我希望WebRTC

Video streaming 垂直方向的H.264流显示损坏的视频

我有一个垂直方向(走廊模式)的IP监控摄像头,该摄像头已为此方向配置。当我在SDP响应内解码SPS时,它正确显示帧大小,宽度为1080,高度为1920。我的软件读取RTSP/RTP视频流,然后将其提供给Microsoft H.264 MFT解码器,并通过DX9显示。我的软件可以很好地处理普通的水平视频馈送,但是当我尝试使用垂直摄像头时,显示器被破坏了。这是它的屏幕截图。一种可能性是,我需要旋转帧,但似乎相机设置已经完成,并且帧大小为SPS格式,这似乎证实了这一点。另外,当我在摄像头的web界面和

上一页 1 2  3   4   5   6    7   8   9  ... 下一页 最后一页 共 20 页