Ios GPUImage在实际设备上得到不同的结果
我使用Ios GPUImage在实际设备上得到不同的结果,ios,objective-c,ios-simulator,gpuimage,Ios,Objective C,Ios Simulator,Gpuimage,我使用GPUImageLookupFilter进行图像处理。 使用模拟器似乎没问题,但当我在真实设备上运行应用程序时,我得到了不同的图像结果 这里有两张图片 有人能告诉我如何解决这个问题吗?看来你在计算中得到了一些饱和,可能(为了证实)来自模拟器和真实设备之间不同的计算精度 在模拟器中,GPUImage代码在主机(开发机器)GPU上执行,而它在真实设备的实际设备GPU上执行。GPU容量之间的差距可能很大,特别是如果开发人员的机器是最新的,而真正的设备是较旧的(例如iPhone 4)。这是
GPUImageLookupFilter
进行图像处理。
使用模拟器似乎没问题,但当我在真实设备上运行应用程序时,我得到了不同的图像结果
这里有两张图片
有人能告诉我如何解决这个问题吗?看来你在计算中得到了一些饱和,可能(为了证实)来自模拟器和真实设备之间不同的计算精度
在模拟器中,GPUImage代码在主机(开发机器)GPU上执行,而它在真实设备的实际设备GPU上执行。GPU容量之间的差距可能很大,特别是如果开发人员的机器是最新的,而真正的设备是较旧的(例如iPhone 4)。这是存储库中的最新代码吗?几个月前,碎片着色器中使用低精度浮点时出现了一个问题,但问题已经解决。它就是这样运行的,并且在修复之后似乎已经消失了。不,我已经更新了最新版本的GPUImage