我想开发新的真正的timelike相机,任何其他视频源视频广播应用程序。Leadtool也有流媒体模块,我可以使用Leadtool的流媒体模块进行开发吗
请告诉我LEADTOOLS流媒体模块相对于WebRTC的可行性和优缺点。您应该能够使用带有捕获设备的LEADTOOLS流媒体服务器。尽管流媒体服务器从磁盘文件夹中获取视频数据,但您可以使用我们的捕获控制从摄像头捕获到MPEG2-TS DVR文件,同时将此文件用作流媒体的源
请注意,LEADTOOLS视频流模块支持多种流格式。媒体流服务器将专门提
我有以下代码:
$.getJSON('/video/getToken', function (data, status) {
identity = data.identity;
navigator.mediaDevices.getUserMedia({
audio: true,
video: {width: 320, height: 240}
})
.then(function (mediaStream) {
我想在网页上设置ISS实时视频流作为背景
这里可以看到这条小溪:
我怎样才能做到呢
我见过一些人问这个问题,但没有一个问题得到解决。请建议如何使用JW播放器或Video.js播放Google Drive视频,或者可能有任何脚本或WordPress插件可以做到这一点?例如:
<video class="video-js" width="640" height="264" controls preload poster="http://video-js.zencoder.com/oceans-clip.png">
<source src="https:
我需要电子应用程序(win)来捕获视频并将其流式传输给我或发送到服务器
有什么例子吗?我真的不知道怎么做。您需要使用webrtc。最终目标是什么?你想把视频流直播给N个人吗?如果是这样的话,那N个人数是否大于~10?观看流的ppl人数是1-2。我需要在线帮助用户,看看他们在做什么。只需按需播放流媒体
我有一个覆盆子圆周率与OV5647相机模块,我用它来流视频
raspivid接受一个名为--mode,-md的命令行参数,该参数提供了相机可以设置使用的两种模式
Mode Size AR Frame rates FOV Binning
0 automatic
selection
1 1920x1080 16:9 1-30fps Partial None
2 2592x1944 4:3 1-15fps Full None
我正在开发一个视频流设备,将视频流到youtube。
为此,我使用NanoPi NEO Core2作为SBC。它继续运行
“基于UbuntuCore,内核:Linux-4.14”操作系统版本,如上所述
和SBC一起,我使用它的屏蔽来使用外围端口,如USB、以太网和调试端口。
为了捕获视频,我使用了Logitech c920网络摄像头
在这里,我面临两个问题:
硬件问题
当我将Logitech C920摄像头与NanoPi Neo Core2连接时
通过迷你盾,它冻结。我无法理解是因为电源问题,还
如果之前有人问过,我道歉。。。我想知道如何从直播流中提取音频。使用digital ocean的ant media server作为视频的rtmp源。试图在一个网站上建立一个页面,感觉就像是两个房间之间的走廊,现场表演正在进行中——在那里你可以听到来自两个房间的音频混在一起。我考虑过只添加两个视频流并隐藏视频,但我担心这会给服务器带来太多不必要的负担
有人知道从流中获取音频的方法吗?甚至可能降低音量,切断高端市场
谢谢
吉尔ffmpeg-i-vn-acodec copy至于音量和截止滤波器,我会使
我想用qtav播放yuv数据。我从文件和tcp套接字播放,但从QBUFFER没有成功。你能帮我吗
MY CODE :
QtAV::AVPlayer* m_player_;
m_player_live1 = new AVPlayer(this);
QtAV::VideoOutput* m_renderer_live1;
m_renderer_live1 = new VideoOutput(VideoRendererId_Widget);
QVar
我需要创建一个程序,可以显示网络摄像机(海康威视红外ip66),
他们为我提供了ocx和dll,以及一些API文档
一个API函数如下(在windows中):
我的代码是这样的:
widget = QWidget()
wid = widget.winId()
dll.playVideo(int(wid))
结果失败了。我不知道怎么了,有什么想法吗?或者其他更好的方式在pyqt中完成这项工作?(例如,使用声子?创建QWidget时,需要传递属性:
Qt::WA_NativeWindows
请记住
这是有关的,尚未回答
基本上,我想知道是否有可能:
Cast the stream from an IP camera to chromecast or some other devices (like raspberry pi)
我的IP摄像头是D-Link的,带有一些GPL代码。
也是
供应商的解决方案同时提供云访问和iOS/Android应用程序,这让我认为可以为其编写一些服务和/或应用程序
我对观看/播放功能的任何和所有可能的方法都持开放态度,我不需要仅在电视上观看视频流就控制摄像机
我正在做一个项目,用户可以上传一些私人视频。我将它们直接上传到S3并通过CloudFront分发。一切都很好,但我读到转码文件也很好,因为它可以创建更小的文件,适合各种用户设备,这也可能导致交付内容的成本更低
我的问题如下。我决定只允许用户上传mp4,因为我不知道所有的格式,我们需要一个快速的阿尔法无论如何启动。如果他们上传mp4文件,转码工作会有意义吗?或者不管使用什么设备,我都应该提供原始文件吗
如果转码器在这种情况下有意义,那么转码作业的最佳预设是什么
老实说,我完全可以为我的用户提供原始
我们正在使用Twilio为一组用户流式传输视频,但它在safari上不起作用。考虑到safari支持H264,我们希望确保视频流采用H264。那么,有没有一种方法可以识别正在传输的视频的编解码器。您可以通过加载流并选中chrome://media-internals
否则,您必须找到包含实际介质的端点。您所说的“找到端点”是什么意思?我的设备必须知道正在使用的编解码器,真的没有办法从SDK中获取这些信息吗?它正在被chrome开发工具中的媒体选项卡所取代。
我正在寻找是否有人在Yocto设备中实现了ONVIF,以及它的实现方式。关于它的任何信息,我们都将不胜感激,谢谢。Yocto,因此您可以让她在项目构建中集成gsoap,或者离线生成文件,并手动将gsoap库添加到您的软件中
这两种方法都是可行的。很抱歉,我是消极的。。。但这可能不是回答这个问题的最佳地点:请看。
我不清楚什么时候进行转码和打包
转码:
使输入编码适应流式传输格式(例如fmp4…)
生成多个比特率和分辨率
包装:
分段和元数据生成
我的问题是:
包装是否按需执行
假设您谈论的是视频,简单的答案是,今天的打包通常是按需进行的,正如您所说,使用“即时”打包机或原始服务器
交付通常通过CDN进行,CDN将缓存其交付的任何内容,即HLS和DASH流,并且作为附加的复杂性,HLS和DASH流的每个段的不同比特率版本
在过去,如果使用Widevine、PlayReady或FairPlay
我正在开发一个GStreamer应用程序,并且正在努力为即将到来的RTP流实现一个播放器。我正在尝试围绕gstrtpbin元素构建一个管道。我正在尝试使用gst启动构造对管道进行建模:
VIDEO_CAPS="application/x-rtp,media=(string)video,clock-rate=(int)90000,encoding-name=(string)H264"
gst-launch -v udpsrc caps=$VIDEO_CAPS port=4444 \
我有一个连接到中央服务器的IP摄像机网络(都有专用IP)。服务器具有internet访问和公共IP
我现在想通过互联网发布来自IP摄像头的流。我更愿意使用付费服务的网站,如ustream,click2stream等,但问题是相机有私人IP地址
我也有Red5的实践经验。有没有什么方法可以让我使用Red5捕获流并将其发布到上述任何一个网站上
该解决方案应该能够管理800个摄像头和15000个观众,还需要对IOS和Android的支持。我想如果你看看FFMPEG,它可能更有意义。
FFMPEG也可以
在我的局域网中,我有一个IP摄像头和两台电脑。我可以录制和播放每台电脑的流媒体数据
例如,要记录流数据,请执行以下操作:
gst-launch-0.10 rtspsrc location=rtsp://192.168.100.50/live.sdp latency=0 ! decodebin ! ffmpegcolorspace ! ffenc_mpeg4 ! avimux ! filesink location=sample.avi
要玩:
gst-launch-0.10 playbin u
我使用静脉来模拟视频传播(omnetpp-4.6、sumo-0.25.0和静脉-4.4)。我想用不同的比特率进行视频传播。为此,我使用网站上的跟踪。所有视频轨迹都有字段,例如:序列号、帧类型、时间[ms],长度
在我的网络中,一个RSU广播视频序列(~650MB),车辆在RSU传输范围内时下载视频
我需要在网络上模拟不同的比特率。要更改比特率,我在omnetpp.ini中编辑这一行:
*.**.nic.mac1609_4.bitrate = 6Mbps
如果车辆以1m/s的速度行驶,则在RSU
我想在一个rtsp流上放置一个文本覆盖,然后用gst rtsp服务器重新对其进行处理
重排部分工作,但当我想把文本覆盖在它比它失败,不能链接错误
我的管线当前看起来如下所示:
./test-launch "(rtspsrc location=rtsp://hostname/video latency=0 ! application/x-rtp, clockrate=90000, encoding-name=H264, profile=high ! rtph264depay ! h264parse
我希望用户直接在线录制并保存视频文件,而不是要求用户上传视频文件。就像他的网络摄像头打开一样——他访问网站,点击“录制”按钮——录制他的信息,然后点击“完成”——视频保存在我的服务器上
类似于此处对youtube的描述:
要做到这一点有多困难或容易。有什么提示、例子、想法吗
谢谢您需要一个Java小程序,它可以在客户端录制视频,一旦整个视频录制完毕,将其作为一个普通文件发布到脚本url上,然后将其作为一个普通文件上传处理。我使用了一种类似的技术,使用Java Sound API录制音频。你可以
我想在我的网站上播放avi、flv、swf、mp4、mpeg视频[存储在我的系统中]
我需要视频播放器的swf文件,以便我可以在我的应用程序中放置视频和player.swf文件
有没有一个播放器可以播放所有这些视频格式?请提供链接。您可以像YouTube那样使用FFmpeg或类似软件将上传的视频转换成FLV或SWF文件,然后在SWF播放器中播放输出视频
您可以从这里下载FFmpeg
下面是我在命令提示符下运行的一段代码,用于将视频转换为Flash
ffmpeg -i video.mp4 -aco
我正在为我的办公室建立一个摄像头安全系统,但是我们不想把DVR留在现场
我们看了NVR(网络视频录像机),它们太贵了。我想到了一个替代方案。我不知道它的可行性有多大,但我肯定希望这里有一些投入
以下是我的想法:
买一台普通的IP摄像机
购买一台服务器或一个AWS实例,编写一个程序将流式提要连续下载到服务器
现在,我对这个解决方案的实用性以及构建这样一个系统所涉及的技术细节有一些疑问:
大多数IP摄像机以什么格式传输馈送?它们传输的帧速率是多少
如果我写一个程序,可以读取这个提要并下载它并将其存储
我正在建造基于树莓皮的四架直升机。我想通过手机连接将视频从网络摄像头传输到我的电脑。我尝试了ffmpeg和mjpg,但它有很大的延迟,使其能够控制四只观看视频
我的问题是,是否有可能以很小的延迟来传输视频(如此之小,以至于我可以毫无问题地驾驶quad)
如果Raspberry的硬件不够好,BeagleBord可能会这么做?此外,将智能手机安装到quad将是最后一个可能的解决方案,但我更喜欢使用Pi的解决方案
更新:我已经使用gstreamer的流媒体和覆盆子Pi相机。事实证明,它的延迟非常小。1
Adobe Http动态流和Http MPEG-DASH自适应流之间有什么区别
据我所知,两者都是基于http的
MPEG-DASH有什么独特之处,使其优于Adobe HDS?他们是竞争对手。除了文件容器格式的差异外,最大的差异是Adobe。DASH背后没有一家盈利公司。它是由标准机构制定的标准。这往往会带来更好的兼容性、更好的开放源码工具和cheeper部署。如果您解释“文件容器格式的差异”是什么意思。.Thanks DASH和HDS都使用ISO/IEC 14496-12的超集。但他们各自发明
我确实有一些视频需要像电视一样按时间表播放。该流将通过本机应用程序在iOS和Android设备中发布。我需要知道一些易于使用的托管提供商谁可以帮助我在这与一个易于上传的视频和时间表
-苏维克据我所知,这样的招待员并不存在。不过,也有一些主人为你试图构建的东西提供了基本的基础设施。有像Red5这样的开源解决方案,也有像Wowza和Adobe Media Server这样的付费解决方案
我正在AWS上使用jitsi设置一个自动缩放负载平衡环境,它将自动缩放连接到韵律的jitsi视频桥实例
我遵循了以下指南:
我是否应该在prosody为每个单独的jitsi videobridge实例创建单独的组件?
还是我在配置上遗漏了什么?
如果我没有弄错的话,您有单独的jitsi视频桥节点与XMPP服务器通信,并通过PUBSUB发送统计数据,Jicofo在PUBSUB中执行这些jitsi视频桥负载平衡背后的逻辑
非常感谢
当我尝试将第二个jitsi视频桥连接到韵律时,我得到了以下错误:
我最近一直在使用Chrome扩展或下载站点从一个网站下载视频。然而,最近它开始提供m3u8文件下载链接。我已经在互联网上搜索过了,尝试过很多方法,但我无法下载这些视频。有人知道如何获得这些视频的下载链接吗?非常感谢。
这些视频大多是足球比赛的精彩片段,通常在浏览器中播放,但无法下载。
更新:http@0000018479631d00]协议“http”不在白名单“文件,加密”中!
master.m3u8:参数无效这是我使用FFmpeg时遇到的错误。m3u8文件通常是包含实际数据文件链接的文本文件
在这个问题的末尾,我想对通过gst-launch-1.0启动的gstream发送和接收流命令添加前向纠错。
具体来说,我使用的是rtpbin,它公开了两个请求焊盘,以允许连接前向纠错“请求fec解码器”和“请求fec编码器”。
我想使用的前向纠错由“rtpallfecenc”和“rtpallfecdec”提供。
不幸的是,我在网上找不到任何示例来说明如何通过gst启动呼叫将请求板连接到rtpbin。有人知道这是否可能吗?如果是这样的话,任何关于如何做到这一点的提示都将不胜感激,因为我真的不知道
我正在研究如何使用蝗虫对视频流播放器进行负载测试,但还没能让它正常工作。基本上,我有一个加载播放器的播放URL,我可以向播放器传递参数,包括autoPlay=true
因此,我试图通过autoplay参数点击播放URL,但这似乎不够。如果您熟悉视频流,则视频通常分为2到10秒的块;每个区块都有一个唯一的URI,玩家从中获取下一个片段
这在蝗虫身上是可能的吗
以下是我的完整性代码:
从Hocust导入HttpUser,任务,在
类GenerateViewerHttpUser:
等待时间=介于1、5
我目前正在做一个项目,向观众提供实时视频内容(具体是HLS)。在我们当前的设置中,我们有多个服务器,它们有自己的FQDN,我们为其分配了一个查看器。
随着观众人数的增加,管理这一点变得很困难,因为如果指定的服务器出现故障,我们必须在客户端处理从一台服务器切换到另一台服务器的问题
我们的目标是为我们的观众提供一个单一的入口点,并在后台透明地平衡负载。我听说过direct server return,但我们在德国找不到任何云服务提供商允许我们拥有这种基础设施。
我们故意不使用AWS ELB或Clou
我无法让快速启动代码在我的站点上运行,所以我插入了一行调试代码(TB.setLogLevel(TB.debug);)来查看它在哪里出错。表示“令牌无效”失败。这里是调试输出-为了隐私,我xx'ed了我的唯一ID,但它们与我得到的匹配。知道为什么会失败吗
OpenTok JavaScript库v2.0.7.1 TB.min.js:52
发行说明:。。。notes.html TB.min.js:52
已知问题:。。。nownIssues TB.min.js:52
TB.setLogLevel(5)T
我正在尝试构建一个实时视频流服务器,它可以接受来自多个远程网络摄像头(AXIS IP摄像头或带有MJPG Streamer的USB网络摄像头)的多个实时提要,并将它们重新流到web客户端
流需要使用Internet Explorer和所有其他主要浏览器在网页上查看,而不需要任何第三方插件,因为我想使最终结果尽可能简单和可访问
终端服务是一个免费的网络摄像头画廊,供潜在访客浏览和查看。目前,我有一台使用windows机顶盒和应用程序流从我自己的家庭光纤连接运行的摄像机,但我想将其移动到数据中心的服
我使用库Nvidia编码器SDK(C++)生成原始H264流(附录B)。我不将流记录到文件中,我只想将视频直播到HTML视频元素中
那么,我想知道我需要做什么?我是否需要将原始H264流多路复用到MP4容器中?使用附件B进行直播不是问题吗?我可以使用HTTP协议吗
谢谢你的回答
我正致力于建立一个精心制作的电视广播系统,目标是为Skype会议的每个参与者录制单独的视频和音频文件。基本上是利奥·拉波特的天空之龙,但有视频。我正在研究不同的设置配置,理想情况下,我希望避免使用单独的VM实例将视频源作为管道传输到Wirecast(正如一些人建议的那样)
我正试图找到一种方法来做到这一点,只使用在一个操作系统上运行的多个Skype实例。我看到的所有建议的解决方案都是通过捕获窗口(使用桌面演示器)或屏幕的裁剪区域来获取Skype视频的。这似乎是一种低技术的方法。此外,我所看到的教
标签: Video Streaming
html5-videohttp-live-streamingmpeg-dashadaptive-bitrate
我已经研究了很多关于网络视频流和播放的现状。我正在发布我总结的内容以及我认为我应该遵循的策略,以支持跨大多数设备和浏览器的自适应流媒体。如果我正在制定的战略存在任何重大漏洞/改进,我只想得到社区的反馈
摘要
为了支持目前大多数浏览器在html的元素中播放视频,我们需要将视频编码为至少3种格式WEBM、OGG和MP4
要为视频点播服务提供自适应流媒体,可用的选项有MPEG-DASH、苹果的HLS、微软的平滑流媒体和Adobe的HDS
最初,我更喜欢使用MPEG-DASH,因为它是一种开放标准,类
我是gstreamer的新手,我想流式播放一段mp4视频,这段视频将音频和视频从我的主机(Ubuntu PC)传输到目标板。我只成功地流式传输了视频。但流媒体(音频和视频)并没有发生
仅流式视频的管道如下所示
发件人:
gst-launch-1.0-v filesrc location=video.mp4!德克宾!x264enc!RTPH264支付!udpsink主机=192.168.2.136端口=5000
接收人:
gst-launch-1.0-v udpsrc port=5000 caps
这是我前面的问题
在成功安装了点灰色摄像头驱动程序后,我发现要充分利用摄像头(pg CM3)的容量存在巨大困难。虽然摄像头能够以150赫兹的频率播放视频(通过windows机器验证),但我只能在ubuntu(16或14)上以70赫兹的频率播放视频
我怀疑这个问题与Grub有关,尽管我没有足够的技能知道如何准确地确认。。。。事实上,当我将最大usbfs内存限制从16永久更改为1000(如cam构造函数所建议),然后sudo update grub,相机SKD(flycap2)冻结
只有在我修复gr
我正在开发一个在线视频播放器,我正在使用TextureView静音扩展TextureView实现TextureViewSurfaceTextRelistener自定义类作为自定义视频播放器
我的回复中有两个url(主url)和dash\u url。现在我想使用ExomediaPlayer,但我有以下问题
如何对要播放的URL进行分类
或者这是否将由球员自己在比赛中决定
或者我们需要使用一个URL播放器自动完成他的工作
4.或者是否可以将自定义视频表面视图和SimpleXoPlayer结合使用
如
我正在探索Wowza作为我们正在开发的视频流产品的潜在解决方案
我们需要能够播放约400个直播频道。据我所知,没有一台Wowza引擎实例/机器能够处理这种负载
通过Wowza的社区论坛,通常推荐的解决方案()是获得一个更大的机箱(更高的CPU/RAM),但考虑到所需的规模,这在我们的案例中是行不通的
文档()中给出的建议似乎只涉及客户机/输出缩放(如果我错了,请告诉我)。对于输出缩放,我们无论如何都要使用CDN。我们真的在寻找一种解决方案,它可以扩展100多个输入流,从而实现自上而下的工作
问题
我的问题是必须将多个客户端连接到RTSP视频流,而不会使原始流媒体摄像机的带宽过载。基本上,我想要的东西将只保持一个到RTSP流媒体摄像机/服务器的连接,但允许N个客户端保持N个到它的连接:
+--->[RTSP client 1]
[input RT(S)P stream]--->[? magic thing ?]---+--->[RTSP client 2]
我有Ant媒体服务器许可证。我想做一个负载测试?我怎么做?
在谷歌搜索之后,我在网上找不到有用的示例,所以有人能给我一些想法或示例吗?Ant Media有自己的WebRTC测试工具,并将其用于负载测试。AWS上也有一个运行此测试工具的AMI。可以使用此AMI在AWS上进行负载测试。你可以检查一下
我想将m3u8流摄取到kinesis视频(MKV格式)。我编译了kvssink插件,但gstreamer失败,出现未知错误
也许我需要在发送到kvssink之前转换流?有人能对这一点发表评论吗
命令:
gst-launch-1.0 souphttpsrc location=http://devimages.apple.com/iphone/samples/bipbop/gear4/prog_index.m3u8 ! hlsdemux ! video/x-h264, format=avc,ali
我想知道是否有可能创建一个web客户端,可以连接两个用户,然后将他们的网络摄像头流发送给对方。这应该在不使用Red5或任何其他闪存/媒体服务器的情况下发生
我可以使用什么协议?什么api等?看看Jabber(XMPP)协议。根据您选择的web框架的不同,客户机可以使用大多数主要语言。否。不可能按照您所描述的方式进行操作
中间你需要某种形式的服务器,或者你需要建立一个ActiveX控件或浏览器插件来处理你的通信。p>
Flash和Java不是选项,因为它们仅限于与源服务器通信。Flash 10引入
我正在尝试建立一个网站,允许用户上传视频文件,并将其显示为流媒体视频
我在流媒体世界里是一个完全的新手,所以我不知道该怎么做,我绝对不想重新发明轮子
有没有免费的平台可以让我使用?我是否需要流媒体服务器,或者我是否可以使用不需要专用服务器的特殊类型的播放器?您可以尝试几个站点:
-不是免费的,但有完整的API和出色的服务
-免费流媒体服务,听到好东西。也有一个API,但不确定它是否能让您通过它进行广播。它更多的是用于直播,而不是转码和存储
在播放方面,将文件名传递给标准flash播放器(如)将是
我不确定这是不是一个合适的地方(如果是的话,请告诉我一个更合适的论坛)
但你们中有人看过一个网站,在那里他们播放视频,暂停视频,问你一个问题,然后继续视频,也许会比较你选择的选项和视频中的正确选项
你也看到过使用这个的网站吗?我看过一个类似“猜猜会发生什么”的视频。如果你选对了,它也会给你分数。但是我忘了链接,对不起
谢谢大家。你们描述的东西在Flash中非常简单。我为几个客户做过互动视频测试。或者您是否考虑了一些需要使用的特定web技术?您描述的内容在Flash中非常简单。我为几个客户做过互动
是否可以通过不使用Flash、silverlight、ActiviX、Java或任何软件的浏览器可靠地实现这一点
是否可以通过不使用Flash、silverlight、ActiviX、Java或任何软件的浏览器可靠地实现这一点
没有。若你们想在浏览器中工作,你们至少需要Flash来完成这项工作,而对于视频捕获,你们肯定需要在服务器端有相应的东西
看
(与音频相关,但产品相同)
HTML5为我们带来了getUserMedia方法,它允许直接从JavaScript获取浏览器的网络摄像头/音频
瞧
我想提供一个视频流,从我的pc和VLC播放器通过WIFI网络到智能手机进行回归测试。
视频在智能手机上完成后,应在开始时自动重新启动
我目前使用rtsp作为协议和循环选项,但这不是强制性的。问题是,每次视频重新启动时,都需要新的rtsp握手。由于我测试的大多数智能手机应用程序都不支持在完成后自动重新连接流,因此我希望只有一次握手始终有效
vlc mypath\myvideo.mp4 sout=#transcode{vcodec=h264,acodec=none}:rtp{sdp=rtsp://:
我有几个视频源(2个摄像头),我需要将两个实时视频流发送到客户端(通过RTP或任何其他合适的协议)。主要要求是两个流都应该同步(这就是为什么我不能使用2个RTP会话)。RTP有可能吗?还有其他考虑事项吗?据我所知,目前还没有通过RTP发送多个流的标准(RTP术语中的“多个参与者”),但这是有标准的。请注意,只要RTP存在,就有人提出了各种扩展。然而,这项草案似乎真正有机会达到标准地位。草案已达到第6版,更新时间不到一个月
还有多种传输(或容器)格式可以包装到RTP中,并在其中传输多个流。这就是同
我正在尝试构建一个类似twitch的应用程序(即多对多实时视频流)。我想使用WebRTC,因为我想让应用程序可以从所有平台访问(我计划使用Nativescript或PWA road)。我的计划是将摄像头从person A传输到媒体服务器。将WebRTC流以多种质量等进行转码,并将其发送给所有订阅的用户,这些用户也可以播放WebRTC流。在理想情况下,将有数千条拖缆,每个拖缆都有数千个实时订户
然而,如何做到这一点?我需要某种媒体服务器,它将负责接收流,对其进行转码并转发。MVP将只是转发流,而不
1 2 3 4 5 6 ...
下一页 最后一页 共 19 页