我希望MPEG编码器为160x120“ok quality”网络摄像头流生成的比特率(大约)是多少
编码需要多少CPU?解码
有没有更好的编码格式?(就比特率或CPU而言)256kbps对于MPEG2中的QSIF(160x120,25fps)就足够了
任何现代的CPU(因为pentiumiv)都可以对其进行实时编码和解码
有一些硬件解决方案(如Compro-VideoMateH900和E800系列),成本约为100$,每个PC最多可安装8个板
使用它们,您可以一次获得8全尺寸流,更不用说QSIF
我想写一个目标跟踪程序,需要播放跟踪结果。由于gstreamer是一个很好的多媒体框架,我想在我的演示程序中使用它。但我不知道如何实现视频显示的细节。有人能帮忙吗
Avidemux插件可以将音频和视频部分从avi文件中分离出来,但是接下来该怎么做呢
如果我打开一个未压缩的avi文件,如果我直接将avidemux插件的输出板链接到视频接收器,它会工作吗
顺便问一下,哪个视频接收器在效率方面更好?
我查阅了插件参考,发现了很多视频接收器:glimagesink、osxvideosink、sdlvid
如何在hadoop中读取视频帧?要在hadoop中处理特殊的文件格式(如视频),您必须编写一个自定义的InputFormat和RecordReader,它了解如何将视频文件转换为拆分(InputFormat),然后将拆分读取为值(RecordReader)。这是一项非常重要的任务,需要一些Hadoop如何处理数据拆分的中间知识。我强烈推荐Tom White的Hadoop,这是O'Reilly的权威指南书,也推荐其上的视频。(完全披露:我为Cloudera工作。)
请记住,视频格式通常是压缩的,这
我需要简单地将大的(~1400mb)文件分割成100mb的视频文件,并具有相同的质量(压缩率)。我需要在短时间内完成它,这样VirtualDub就不会使用任何压缩操作,而只是将视频分割成小视频。正确的方法是什么?有其他的免费软件可以做到这一点吗?使用VirtualDub可以尝试以下方法:
打开视频
视频=>直接流拷贝
音频=>直接流拷贝
文件=>保存分段AVI
文件段大小限制(MB)=>100
单击保存
当我在magento中使用CMS添加.flv媒体时,它会在flash播放器上显示白色空白屏幕作为选项。
我正在使用1.4.0.1版本的magento
如何在magento的静态页面上添加flash视频。magento中的CMS不包括视频播放器,您需要在其位置提供SWF flash对象。有一个有限的选择扩展提供视频,我从来没有留下足够的印象,任何建议他们
当我需要使用HTML按钮时,我可以粘贴Youtube上的嵌入代码或我自己选择的播放器,比如,这意味着我需要了解一点。Magento中的CMS不包
我试图在SIP和XMPP域之间建立一个网关。我有一个带有FreeSWITCH和OpenFire的环境(FreeSWITCH在中注册为组件)
两个SIP用户之间的视频呼叫可以工作,但我无法在SIP和XMPP客户端(连接到OF)之间建立视频呼叫
您是否有使用XMPP-SIP网关的经验?我应该怎么做才能启用这样的调用?您应该尝试了解您使用的FreeSWITCH模块和XMPP服务器是否支持相同版本的。这将是一个棘手的问题,因为叮当声仍在起草中,而且实现可能是独特的
如果启用FreeSWITCH详细调试,
我正在寻找一个视频数据库(不确定是否有这样的事情…),在那里我可以搜索视频,并根据它们的分辨率、长度和其他技术属性下载它们
我问这个问题的原因是,我想在不同类型的数据上测试一些计算机视觉算法。我会围绕一个(或可能几个)选定的视频编写一个脚本,并使用ffmpeg将它们转换为各种分辨率、比特率、帧速率和格式,以形成测试数据集
大致如下:
ffmpeg-i source.avi-vcodec h263-b 200000-r 25-s 240x160 test.mov
关于ffmpeg和MPEG的完整信
我正在尝试用mp3对视频进行编码,并在视频流仍在运行时使音频流循环。视频蒸汽优先
我还没有看到ffmpeg中的命令专门允许这样做。有人有想法吗?我认为ffmpeg不支持此功能。据我所知,在将音频叠加到视频上之前,您必须在ffmpeg之外的新mp3文件中生成音频循环。我认为ffmpeg不支持此功能。据我所知,在将音频叠加到视频上之前,您必须在ffmpeg之外的新mp3文件中生成音频循环。重复问题:使用ffmpeg添加重复的背景音频重复问题:使用ffmpeg添加重复的背景音频
有没有办法在ffmpeg中获得音频曲目分配?例如,如果您在QuickTime中,则可以查看信息(命令-I),并查看轨迹指定。它看起来像这样:
Apple ProRes 422 (HQ), 1,920 x 1,080
Linear PCM, 24 bit little-endian signed integer, 48000 Hz, **Left**
Linear PCM, 24 bit little-endian signed integer, 48000 Hz, **Right**
Linea
我对视频/音频格式、容器和协议一无所知。然而,我必须弄清楚如何解码包含音频和视频的比特流。我不知道所使用的传输协议、容器格式或编解码器——但我能够推断出一些事情:
这不是RTP
它在端口443上通过UDP
音频和视频都是数据报
音频数据报有效负载的长度总是76字节,每秒大约有42字节
视频数据报有效负载最大为536字节,平均约为500字节,每秒约有62字节
我应该如何开始解码呢?您是否尝试过保存一个大数据块并用VLC或FFMPEG解码播放它?您是否尝试过保存一个大数据块并用VLC或FFMPE
我正试图找到最快的方法来导出PNG序列或带有处理的电影。我正在捕获Kinect数据,目前,在每次绘制调用中,我都使用:
saveFrame("output/fames####.png");
但这太慢了。我能做什么更快的
我正在使用simple openni作为kinect提要。处理/编码一帧需要多长时间(以及您可以接受的时间)?您可以尝试缓冲数据,并让固定数量的工作线程异步处理数据。否则,您将不得不求助于捕获视频,因为这样,安装的编解码器可以使用硬件加速/基于CPU的优化编码
编辑:要吸收编码
我尝试了多种方法来获得正确的路径,以将此实时流媒体视频嵌入此url:“http://www.turbotv.in/mazhavil-manorama-live/“访问我的网站,但无法访问。
JW播放器说“连接失败:应用程序拒绝连接”
现在我需要有人谁知道这一点,以找出正确的嵌入代码出这个网站
,这样我就可以将实时视频嵌入我的网站
现在需要一个早期的解决方案。请尽早回复。该站点上JWPlayer播放的URL作为参数提供给HTML中的JWPlayer嵌入代码:
<param name="fla
我目前正在从事一个项目,其中我有以下关于视频流的用例:
1) receive live video stream (mkv container would be prefered)
2) store this stream (on cloud storage)
3) optionally transcode the stream into mp4/etc.
4) optionally store the transcoded stream (on cloud storage)
5) re-tra
是否可以将视频从Youtube流式传输到stagevideo实例,即不将其嵌入stageWebView实例。我已经完成了。你看到了什么问题?我没有看到任何问题,我还没有实现。我是在知道这是否可能(你们已经证实了这是可能的)以及所涉及的过程的信息之后。例如,我是否需要注册youtube API系统,或者是否通过查看浏览器请求等获得视频的详细信息?感谢您提供上述信息:)
这似乎是重复的:
但它不是重复的,因为上面问题的作者框出了错误的标题,因为图像显示的时间间隔是固定的
我想做的是
图1:5秒
图2-5:10秒
图6:4秒
请让我知道如何使用ffmpeg实现这一点。我试着用谷歌搜索,但并没有找到这样的结果。你们可以选择制作具有一定长度的单独视频,并最终将它们连接在一起吗ffmpeg-i“concat:file1.yuv | file2.yuv”-f-c copy out.xxx几个小时前,我遇到了同样的想法。我正在努力。一旦我测试它真的有效,我会接受它作为一个解
我想通过直接写入车载视频硬件来测试我的真实硬件
我该怎么做
这是我自己的操作系统项目,它必须直接用于我的板载图形,而不是任何nVidia卡或诸如此类的卡。您可以从地址开始直接写入EGA/VGA标准化的内存地址
A000:0000
模式X允许在VGA兼容硬件上使用比VGA标准支持的分辨率稍高的分辨率
如果BIOS支持VESA,则可以使用VESA BIOS调用来设置扩展视频模式
这里有一个关于VESA编程的详细介绍(即使是一个摘要也太广泛,无法包含在这里的答案中),它提供了使用VESA模式开始
最近我将ffmpeg更新为1.1版,当我运行包含bframebias的命令时,它显示了一个错误:
Unrecognized option 'bframebias'.
Error splitting the argument list: Option not found
这个命令过去工作正常。那么选项bframebias被删除,还是被另一个选项替换
C:\Users\Raymond\Downloads\ffmpeg-1.1-win32-static\bin>ffmpeg -i C:\Use
我花了很多时间试图找出当调用BIOS INT 10、服务0来设置视频模式时会发生什么。是否可以使用EGA端口手动执行这些操作
我找到了来自不同来源的文档,但没有找到只设置特定模式的文档。我开始意识到“视频模式”不仅仅是一个寄存器值,它是EGA中的一系列设置
要明确的是,我只在DOSBox和QEMU下使用文本模式(0、1、2、3和7)进行练习。在web上查找Tauron VGA实用程序。软件包中的代码仅使用视频寄存器而不使用任何BIOS功能来设置各种视频模式(文本和图形)。这些模式中的大多数似乎在
我需要生成一个标题序列,以及学分等,为成千上万的视频。对于每一个视频,我可以并且将有一个文件,以任何适当的格式描述开头和结尾序列所需的文本,以及每页文本应显示的长度
有哪些软件可用于此目的?它需要可编写脚本/自动执行,因为我有数千个视频要执行此操作。我相信您希望呈现最终视频(包括文本、标题、标题等)。在这种情况下,您可以看到After Effects脚本。是演示AE中脚本基础知识的视频
标签: Video
facebook-opengraph
如何为一个页面上放置的多个视频添加OG标记?我需要一个例子
我为1个视频添加了标记,但不知道如何为2个或更多视频添加标记。只要根据需要多次添加带有必要参数的视频标记即可
例如
像这样的标记
<meta property="og:video" content="http://example.com/movie.swf" />
<meta property="og:video:secure_url" content="https://secure.e
我正在尝试使用ffmpeg从mp4或flv h264视频(youtube视频)中提取视频流。原始视频(test.flv)使用ffplay播放时没有问题,ffprobe给出如下错误:
ffprobe version N-55515-gbbbd959 Copyright (c) 2007-2013 the FFmpeg developers
built on Aug 13 2013 18:06:32 with gcc 4.7.3 (GCC)
configuration: --enable-gpl -
坚持用C编写一个非常基本的媒体播放器,使用SDL和ffmpeg库。最初,按照page中的理论了解整个程序和库的使用情况。在从头开始编写代码之后,多亏了那个教程和许多其他资源,最后我使用最新的ffmpeg和SDL(2.0)库完成了代码的编写。但是我的代码缺少一个合适的同步机制(实际上它缺少一个同步机制!)
我仍然不清楚如何将音频和视频同步在一起,因为链接中提供的理论只是部分正确(至少在使用最新开发库时是如此)。
例如,第页中的一句话如下:
但是,ffmpeg会对数据包进行重新排序,以便avcode
我很难找到关于如何使用Zencoder合并视频的文档。以下是我想做的:
将视频上载到Zencoder,以便使用其api进行编码(完成)
Zencoder将我的两秒钟品牌介绍视频合并到上传视频的开头,并将它们编码为一个文件
Zencoder将新视频发送到我的youtube帐户
Zencoder是否可以执行步骤2和3。如果是的话,你能链接或解释一下吗。如果没有,欢迎提供建设性反馈
谢谢 根据您的频道,您可以通过两种方式获得第三名。如果您是YouTube合作伙伴,您可以访问一个SFTP或Aspera帐
昨晚我安装了fedora release 20。但是我不能播放任何视频。如果我在播放视频文件,比如说VLC。音频正常。只有视频没有播放
没有图片,只有声音
我试过安装,
vlc
smplayer
所有gstreamer包
似乎没有一个起作用。我想没有与图形卡相关的问题。因为所有的播放器都明确地大声说——找不到编解码器
只有我一个人在这里吗??还有其他人面临这个问题吗?
提前感谢。关闭selinux,然后重试。
selinux阻止了插件。我也遇到了同样的问题
通过将VLC首选项中“视频设置”下的输
因此,我正在寻找一种方法,将视频文件剪切到文件的最后10秒。通常我会使用FFMPEG或mencoder,但情况是每次剪切时,要剪切的文件的大小都会不同。所以我用ffmpeg找到了一些关于一般持续时间的东西,但问题是我需要持续时间是秒,而不是00:00:00,这样我就可以用var-10表示-ss了
我不知道我是否解释得足够好,但简而言之:
每次运行不同长度的视频时,只需在新文件中保存最后10秒。
需要一些轻资源,但仍然很快
提前感谢所有回答问题的人 这很容易,但不是很容易,当然也不是很快。
一般来
我刚买了一个覆盆子Pi2并安装了Windows IoT。我想在MediaElement上显示一个简单的RTSP流,但它似乎不受支持。有人知道如何使它工作吗?这里也有同样的问题/
如果您有一个1:30小时的视频,并且您希望在不重新编码的情况下剪切其中的一部分,您可以使用FFMPEG
比如说,,
要从原始视频中剪切30分钟的视频,从15分钟30秒开始,命令如下:
FFMPEG-i“C:\Input.mp4”-vcodec副本-acodec副本-ss 00:15:30.000-t 00:30:00.000“C:\Output.mp4”
但这也应该做到:
FFMPEG-i“C:\Input.mp4”-ss 00:15:30.000-编解码器副本-t 00:30:00.000“C
我正在尝试使用video.js插件,但无论是在我的网站上还是在演示中,我总是会遇到以下错误:
TypeError:player.textTracks(…)未定义
我使用的是5.4.4,我的代码如下所示:
<script src="/videojs/video.js"></script>
<link href="/videojs/default.css" rel="stylesheet">
<script src="/videojs/videojs.thu
我正在尝试将大视频文件上传到picasa,但尚未成功。
我知道Picasa有一个局限性:
但不知何故,其他电影网站仍然可以将高清视频上传到picasa。我认为他们是用脚本来实现的,他们不能自己上传上千部电影。
有人有线索做这项工作吗
标签: Video
appceleratorvimeoappcelerator-titaniumappcelerator-alloy
我有一个适用于Android和iPhone的应用程序,我们希望创建一个包含一些视频的页面,供用户查看(说明)。这些视频都在Vimeo上(你可以看到)
我知道我无法获取“真实”媒体文件的url,因此无法使用控件。我尝试设置一个简单的,以类似于我上面提到的网页上的方式显示视频。这在安卓系统上似乎是可行的,但在iPhone上却没有。。。这是一段代码:
<View class="formRow">
<WebView html="<html><b
这里是我拥有的:input1.avi——包含声音的视频。input2.avi-不包含声音的视频。music.mp3-音频文件
我想将背景音乐music.mp3文件添加到视频中
C:\input1.avi-ic:\music.mp3-shortest-C:v copy-C:a copy C:\output1.avi
然后output1.avi与input1相同-有声音但没有背景音乐music.mp3的电影
当我尝试使用没有声音的其他文件视频时:
C:\input2.avi-ic:\music.mp
我使用ffmpeg将视频剪辑成剪辑。通过此命令:
ffmpeg -ss 00:00:00 -i video.mp4 -to 00:01:00 -c copy cut.mp4
ffmpeg -i video.mp4 -ss 00:00:00 -to 00:01:00 -c copy cut.mp4
Ffmpeg必须在关键帧处剪切,因此,当我将每个剪辑连接回整个视频时,在每个剪辑的开头都有一些重复的帧。然后我找到了这个命令:
ffmpeg -ss 00:00:00 -i video.mp4 -t
标签: Video
webcamframe-ratev4l2
我在Debian Jessie(3.4和4.7内核)下运行2个飞利浦SPC900NC网络摄像头。如果FPS可以降低到10 FPS甚至5 FPS,那么cam在光线不足的情况下表现出色。这可以很好地工作,例如通过以下方式使用ffmpeg录制视频:
ffmpeg -f v4l2 -framerate 5 -video_size 640x480 -i /dev/video0 test.mp4
但是有了像Motion和ZoneMinder这样的监视工具,cam总是默认为15FPS,与我在这些程序中设置的
我正在使用MediaFoundation SourceReader技术开发USB摄像头流式桌面应用程序。该相机支持USB3.0,1080p MJPG视频格式分辨率为60fps
我使用软件MJPEG解码器MFT将MJPG转换为YUY2帧,然后转换为RGB32帧在窗口上绘制。当使用这个软件解码器时,我能够在窗口上只渲染30fps,而不是60fps。我在这个网站上发布了一个问题,并得到了一些使用Intel硬件MJPEG解码器MFT解决帧丢失问题的建议
为了使用这个硬件MJPEG解码器,我处理了异步MF
我们都听说YouTube使用深度学习为用户视频选择具有代表性的缩略图。但有人在tensorflow上成功试用过吗
我确实找到了那些声称能做到这一点的人,但对结果印象不深。实际上,我使用ffmpeg提取关键帧,然后计算颜色分布来选择“最佳”图像,得到了更好的结果
但是我很想知道是否有人使用更“智能”的算法做得更好。我想向OP说明,这个答案并不代表对方法的正式描述,以便以直观的方式描述预期的方法
假设一个视频由n个帧组成,每个帧都可以表示为一个3D张量(高度、宽度、通道)。可以使用卷积神经网络(CN
我试图为ffmpeg找到一个工作示例,将4个分辨率不同的视频(2x2堆栈)和9个分辨率不同的视频(3x3堆栈)组合在一起
对于2x2示例,我目前正在使用文档示例,但它仅在所有视频的分辨率相同时才起作用。参见命令
ffmpeg-i top_l.mp4-i top_r.mp4-i bottom_l.mp4-i bottom_r.mp4-i audio.mp4\
-过滤复合物“[0:v][1:v]hstack[t];[2:v][3:v]hstack[b];[t][b]vstack[v]”\
-映射“[
我正在尝试将大量视频转换为Windows 7系统上PowerPoint 2013/2016本机支持的视频格式
微软在其网站上推荐使用h264和aac的mp4
在PowerPoint 2013及更高版本以及PowerPoint 2016 for Mac中,为了获得最佳的视频播放体验,我们建议您使用使用H.264视频(也称为MPEG-4 AVC)和AAC音频编码的.mp4文件。在PowerPoint 2010中,我们建议您使用.wmv文件
我们建议使用AAC音频编码的.m4a文件。在PowerPo
首先,让我先说一句,我必须处理大量的视频,每一个视频哪怕减少1秒钟都是非常重要的
我试图提取视频中所有帧内帧的位置
FFProbe可以工作,但速度惊人地慢
FFMpeg的工作速度要快得多,但仍然相当慢
所以,我的问题是,是否有一个lib,我可以在其中执行类似以下伪代码的操作:
var frame = first_frame;
do
{
if (frame.type == intra_frame) log(frame.time);
frame = frame.next;
} whi
我正在开发一个电子视频播放器。我希望能够从文件系统中选择一个视频文件并播放它。路径可能看起来像win的C://Users/../…。和OSX的/Users/../../../。因此,问题是Chrome无法使用文件://协议,如果没有该协议,它将尝试从当前主机加载它。那么,有没有一种方法可以使用electron或webpack从操作系统文件系统加载视频?如果满足您的需要,您可以使用以下方法让用户选择视频:
这在chrome上起作用
这个答案中有一个很好的例子:您是否尝试使用不带文件前缀的路径:
标签: Video
video-processingvideo-editing
我有很多小的视频讲座,但第一秒和最后几秒是开场和结尾的学分,我不想保留。此外,它破坏了连续性
所以我想要的是删除所有视频文件的前15秒和最后10秒,然后合并它们
有人能推荐一种方法或软件吗?
-ss位置(输入/输出)
可以删除前15秒:-ss“0:00:15”或-ss 15
-定位(输入/输出)
从pos到pos
-t持续时间(输入/输出)
来自具有dur的pos
-位置(输入)
-sseof-10:获得最后10秒
但没有-toeof位置
我认为它可以通过ffprobe“infle”2>&1
我找到了如何在给定时间启动google drive视频,但没有找到如何自动播放视频。有人能帮忙吗?
更一般地说,我想知道所有可用的选项,但我找不到文档。如果您使用HTML5编码,那么这应该会有所帮助
<video controls autoplay>
<source src="https://source" type="video/mp4">
Browser does not support the video tag.
</video>
浏览器不
我目前正在Windows 10系统上使用以下命令录制屏幕
ffmpeg.exe -loglevel quiet -f gdigrab -framerate 30 -i desktop -vf mpdecimate,setpts=N/FRAME_RATE/TB -vcodec libx264 -pix_fmt yuv420p -preset slow -crf 0 -threads 0 nodups.mkv
如果我录制了5分钟的视频,其中4分钟是空闲的。最终获得的视频只有1分钟。我想知道这个1分
我有一个具有可变帧速率的视频,我使用-vsync passthrough将其解码为单个帧,以避免重复/丢失帧。在使用另一个应用程序处理这些帧之后,我想再次将它们编码为mp4视频,该视频具有与原始视频完全相同的时间戳
我的想法是输入帧和原始视频,并使用后者的时间码。这可能吗
这是我目前的做法:
ffmpeg -i input/%d.jpg -vsync 0 -i input.mov \
-filter_complex '[0]setpts=PTS[vid1];[vid1]pad=iw*2
我有三个vimeo剪辑嵌入在我从这里得到的一个列布局中,我希望它们都具有相同的高度,这就是我如何将其放入嵌入代码本身的方式。似乎布局代码中的某些内容正在覆盖中间的一个,因此它的边框大小与其他两个相同。有什么我可以添加或删除的css,使他们都是相同的高度?中间的视频应该比其他两个正方形的视频宽
</body>
</html>
<!-- /wp:html -->
</a></span></p>
<width=220%
我有一个项目,我想使用一个GoPro,连接到一个树莓圆周率。将视频存储在Pi上,允许与Pi的WiFi连接以查看实时视频,并在视频仍在录制时倒带以观看以前的视频
可能正在查看Web应用程序以查看/回放视频源
我只是想了解一下我如何/是否可以着手这项工作
我正在尝试合并一些视频,但时间戳错误
我试图让它们在相同的尺寸、帧速率、采样率下都相等,并且在没有音轨的情况下添加一个音轨
ffmpeg -i input1.mp4 -y -i audio1.mp3 -c:v copy -c:a aac -shortest output1.mp4
ffmpeg -i input2.mp4 -y -i audio2.mp3 -c:v copy -c:a aac -shortest output2.mp4
ffmpeg -y -safe 0 -f concat -i
我想在下面的单个视频的单个渲染中输出2个不同的缩放命令。我该怎么做
ffmpeg -y -i input.mp4 -vf "zoompan=z='if(lte(mod(time,5),3),2,1.05)':d=1:x=iw/3-(iw/zoom/2):y=ih/3-(ih/zoom/2):fps=29.97" output.mp4
ffmpeg-y-i input.mp4-vf“zoompan=z='if(lte(mod(time,10),3),2,1.05):d=1:x
对于一些设备(较旧的Android手机),我需要带基带H.263的MP4
手刹只有H.264、MPEG-2和MPEG-4的编解码器选项
使用H.263和手刹有什么诀窍吗?或者你通常是如何处理这个任务的?我在stackexchange中阅读了很多线程,每个人都在使用handbrake,但我找不到正确的编解码器。handbrake利用了几个灵活的开源库,提供了一个非常好的可用前端。然而,它只暴露了大多数人关心的最常见的特性。正如您所发现的,H.263并不是当今许多人关心的功能之一
好消息是,底层代码
我想使用OpenCV来保存深度数据和rgb流。我知道使用OpenNI(.oni)也可以,但我只想使用OpenCV。例如,是否可以将每个帧的深度数据写入.xml文件,将rgb流写入.png文件。然后用imread读回.xml和.png文件,例如,为了让深度贴图和rgb流作为视频序列再次连接起来?或者您是否有更好的解决方案使用OpenCV从kinect数据生成深度+rgb视频
我会非常感谢你的想法或代码片段。谢谢 Opencv有一个内置的openNI包装器:如果完全拒绝openNI,还可以使用lib
我正在尝试使用静态图像和音频文件通过ffmpeg实现livestream。ffmpeg命令如下所示
ffmpeg-re-loop 1-f image2-i'/tmp/11.jpg'-f lavfi-i amovie=/tmp/5117.mp3:loop=999-video_size 600x480-c:v libx264-x264参数keyint=60-bufsize 500k-c:aac-ar 44100-b:a 128k-r30-g60-pix_fmt yuv420p-f flv“rtmp:
1 2 3 4 5 6 ...
下一页 最后一页 共 116 页