Cocoa CIFilter/CIKernel中的最大图像大小?

Cocoa CIFilter/CIKernel中的最大图像大小?,cocoa,image-processing,quartz-graphics,core-image,Cocoa,Image Processing,Quartz Graphics,Core Image,有人知道自定义CIFILTER对图像大小的限制吗?我创建了一个过滤器,当图像高达200万像素时,它的性能与预期一样,但当图像更大时,它会产生非常奇怪的结果。我已经在我的cocoa应用程序和quartz composer中对此进行了测试。我开发的过滤器是一个几何类型的失真过滤器,它(我认为)需要一个ROI和一个覆盖整个输入图像的DOD。我已经创建了这个用于重新映射全景图像的过滤器,所以我希望它能够处理非常大(5000-100百万像素)的图像 作为一个简单的测试,考虑下面的CIFilter(可以在石

有人知道自定义CIFILTER对图像大小的限制吗?我创建了一个过滤器,当图像高达200万像素时,它的性能与预期一样,但当图像更大时,它会产生非常奇怪的结果。我已经在我的cocoa应用程序和quartz composer中对此进行了测试。我开发的过滤器是一个几何类型的失真过滤器,它(我认为)需要一个ROI和一个覆盖整个输入图像的DOD。我已经创建了这个用于重新映射全景图像的过滤器,所以我希望它能够处理非常大(5000-100百万像素)的图像

作为一个简单的测试,考虑下面的CIFilter(可以在石英作曲家中使用),它简单地翻译图像,使得图像的左下角被翻译成中心(我知道这可以用仿射变换来完成,但是我需要在更复杂的滤波器中执行这样的操作)。当图像为2000x1000像素时,此过滤器按预期工作,但当输入图像为4000x2000像素时,会产生奇数结果。问题在于,要么平移没有将角点精确移动到中心,要么图像输出完全消失。我注意到在大图像上使用更复杂的过滤器还存在其他奇怪的问题,但我认为这个简单的过滤器说明了我的问题,可以在Quartz Composer中复制

kernel vec4 equidistantProjection(sampler src, __color color)
{
     vec2 coordinate = samplerCoord(src);
     vec2 result;
     vec4 outputImage;

     result.x = (coordinate.x - samplerSize(src).x / 2.0);
     result.y = (coordinate.y - samplerSize(src).y / 2.0);

     outputImage = unpremultiply(sample(src,result));

     return premultiply(outputImage);
}
当使用工作坐标而不是取样器坐标时,会出现相同的奇怪行为,但在这种情况下,尺寸为2000x1000的图像会出现错误,但尺寸为1000x500的图像效果良好

kernel vec4 equidistantProjection(sampler src, __color color, vec2 destinationDimensions)
{
     vec2 coordinate = destCoord();
     vec2 result;
     vec4 outputImage;

     result.x = (coordinate.x - destinationDimensions.x / 2.0);
     result.y = (coordinate.y - destinationDimensions.y / 2.0);

     outputImage = unpremultiply(sample(src,result));
     outputImage = unpremultiply(sample(src,samplerTransform(src, result)));

     return premultiply(outputImage);
}
为了便于参考,我在过滤器的
-(CIImage*)outputImage
方法的Objective-C部分添加了以下内容,以将DOD设置为整个输入图像

- (CIImage *)outputImage
{
    CISampler *src = [CISampler samplerWithImage: inputImage];



     NSArray * outputExtent = [NSArray arrayWithObjects:
            [NSNumber numberWithInt:0],
            [NSNumber numberWithInt:0],
            [NSNumber numberWithFloat:[inputImage extent].size.width],
            [NSNumber numberWithFloat:[inputImage extent].size.height],nil];


return [self apply: filterKernel, src, inputColor, zoom, viewBounds, inputOrigin,
     kCIApplyOptionDefinition, [src definition], kCIApplyOptionExtent, outputExtent, nil];

}
此外,我还添加了以下方法来设置我在
-(id)init
方法中调用的ROI:
[filterKernel setROISelector:@selector(regionOf:destRect:userInfo:)


在此问题上的任何帮助或建议都将不胜感激。我确信CIFilters可以处理更大的图像,因为我使用cibumportion处理了超过5000万像素的图像,所以我一定是做错了什么。有什么想法吗?

使用CoreImage时,我发现它可以将大图像分割成多个部分。例如,在您的示例中,4k x 2k图像可以拆分为4个2k x 1k图像,并单独渲染。不幸的是,这种优化技巧会影响到samplerCoord,并且某些坐标相关的过滤器在大图像上无法正常工作

我的解决方案是使用destCoord而不是samplerCoord。当然,您应该记住,可以在非零原点和destCoord中渲染图像。我编写了自己的过滤器,所以我能够将整个范围作为vec4参数传递

示例:尝试使用CIFilter生成图像,类似于:

float gray = (samplerCoord.x / samplerSize.width) * (samplerCoord.y / samplerSize.height);
这个输出应该在(0,0)处给我们黑色,在(1,1)处给我们白色,对吗?但是,对于大图像,您将看到很少的四边形,而不是单个渐变。这是由于来自CoreImage引擎的优化渲染造成的,我还没有找到传递它的方法,但您可以通过以下方式重新编写内核:

float gray = ((destCoord.x - rect.x) / rect.size) * ((destCoord.y - rect.y) / rect.height)
其中rect为必须通过的采样器的实际范围。为此,我使用了[inputImage extent],但它取决于过滤器,在您的情况下可能是其他的


希望这个解释说清楚。购买方式,看起来系统内核即使在大映像中也能正常工作,因此您应该只担心自定义内核中的这些技巧。

有没有办法事先知道平铺映像的来源?如果传入4-d范围(原点x、原点y、宽度、高度),是否可以通过编程确定CoreImage将如何将图像分割成多个部分,以了解每个块的原点位置?还是我遗漏了什么。我一直在做的是使用destCoord,然后使用samplerTransform,同时明确地将输入图像的整个范围作为ROI传递。只要输入的图像足够小,这种方法就可以很好地工作。@KevinGross您找到解决方案了吗?坦斯克!
float gray = ((destCoord.x - rect.x) / rect.size) * ((destCoord.y - rect.y) / rect.height)