gstreamer中的两条独立管道

gstreamer中的两条独立管道,gstreamer,Gstreamer,我有两个不同的来源,一个是音频,另一个是视频。我使用appsrc从源代码中提取数据。我能够单独播放视频和音频。然而,我不知道如何让他们一起工作 请让我知道是否有人曾经这样做过,或者知道两个人是如何做到这一点的。您可以让他们成为同一管道的一部分。管道可以有两个源和两个汇以及连接源和汇的中间组件。这样,它们将使用相同的管道时钟 编辑: 音频驱动并不意味着两者不需要相同的时钟。除非你没有;不关心音视频同步,最终两者都必须使用相同的时钟。音频驱动的东西是分开的,所以不要在你的头脑中混合这两个。如果你不想

我有两个不同的来源,一个是音频,另一个是视频。我使用appsrc从源代码中提取数据。我能够单独播放视频和音频。然而,我不知道如何让他们一起工作


请让我知道是否有人曾经这样做过,或者知道两个人是如何做到这一点的。

您可以让他们成为同一管道的一部分。管道可以有两个源和两个汇以及连接源和汇的中间组件。这样,它们将使用相同的管道时钟

编辑:
音频驱动并不意味着两者不需要相同的时钟。除非你没有;不关心音视频同步,最终两者都必须使用相同的时钟。音频驱动的东西是分开的,所以不要在你的头脑中混合这两个。如果你不想让它们使用同一个时钟,为什么你会说“我不知道如何让它们一起工作”,那么它们只是独立的管道,不存在一起运行的问题。如果你想要AV同步,你需要时钟同步。要么通过rtsp(一条完全不需要的长而复杂的路径)执行,要么在同一条管道上同时运行这两条路径。

我不希望它们使用相同的时钟。音频管道必须为我驱动这些东西,因此时钟将从它来。我不知道该如何完成。@av501:我现在已经创建了两个独立的管道。有两个appsrc元素,分别用于视频和音频。我期望他们的行为方式是,主时钟应该来自音频管道,视频应该跟随它。我希望在同步延迟的情况下删除一些视频帧。我一直在尝试将其合并,但尚未取得任何成功。如果我将它们添加到同一管道中,那么我也将无法使音频成为我的主时钟。音频和视频基本上都将遵循管道的时钟。让我知道你对此的看法。没有单独的管道时钟。音频是任何av系统的主控设备。源/汇驱动时钟。音频将成为主管道如何知道通过它传递的数据是音频。我的意思是,我使用两个独立的appsrc元素,一个获取音频数据,另一个获取视频数据。就我的理解而言,我必须以某种方式使主时钟成为音频元素(接收器/源)的时钟,或者有办法让管道知道同样的情况。明白了。我之前的评论有点错误。是的,你必须制作母钟。没有帮助吗?最后给出了主/从同步提示。但是我不是100%确定。我的看法是,您的源必须生成数据,并且这些数据的时间戳为生成数据的时间。因此,所有视频样本和音频样本将根据这些时间戳自动同步。这里没有主/从。