Ios 延时效应

Ios 延时效应,ios,gpuimage,Ios,Gpuimage,我正试图通过使用GPUImage来实现幽灵效果 我的理解是,它将是一个双输入滤波器,在使用的两个帧之间具有给定的时间延迟。然后我只需添加两个帧,每个帧的alpha值为0.5 我在GPUImageLowPassFilter中看到了如何使用GPUImageBuffer在gpuimageusing中使用当前帧和前一帧,但我不确定如何设置我想要使用的两帧之间的时间延迟 有什么想法或建议吗?我正在考虑创建一个自定义过滤器并覆盖NewFrameReadyAtime:atIndex:以延迟前x帧的下游传播,其

我正试图通过使用GPUImage来实现幽灵效果

我的理解是,它将是一个双输入滤波器,在使用的两个帧之间具有给定的时间延迟。然后我只需添加两个帧,每个帧的alpha值为0.5

我在GPUImageLowPassFilter中看到了如何使用GPUImageBuffer在gpuimageusing中使用当前帧和前一帧,但我不确定如何设置我想要使用的两帧之间的时间延迟

有什么想法或建议吗?我正在考虑创建一个自定义过滤器并覆盖NewFrameReadyAtime:atIndex:以延迟前x帧的下游传播,其中x是帧数方面的延迟。也许一个干净的方法是将GPUImageBuffer子类化,以便在将x帧输出到2输入过滤器之前自动堆叠它们


谢谢

我认为你保留旧相框的做法是正确的。对于颜色效果,您将看到类似于提取颜色通道的内容,使用它们作为输入在混合过滤器中进行组合。关键是输入的值必须与视频中不变部分的自然颜色值相加。

不需要子类GPUImageBuffer来堆叠帧,只需将bufferSize属性设置为希望延迟的帧数即可。但是,请注意,由于每个附加视频帧都被缓冲,这将导致内存使用量显著增加。不幸的是,我的任何一台机器现在都没有Flash,所以我看不出这个鬼效应应该如何运作。感谢你的回答,Brad,谢谢你的伟大框架!我看到了bufferSize属性,但通过查看代码,它似乎不会自动创建延迟,但我肯定会尝试一下。这是一张有这种效果的照片。这段视频也是最终目标的一个例子,尽管首先我需要一个延迟版本,而不是几个。