图像采集与处理;分析iOS

图像采集与处理;分析iOS,ios,iphone,swift,avfoundation,Ios,Iphone,Swift,Avfoundation,我有点头疼。我正在使用iPhone来拍摄使用AVFoundation的实时图像。在captureOutput函数中,我根据Apple developer notes从sampleBuffer创建一个UIImage-如果我将此图像保存到相机卷中,我可以查看它,并且它看起来与预期的一样(我不是每次调用captureOutput时都这样做!)。但是我不想保存它,而是想看看它的一些像素值 再次使用苹果笔记,我得到了X&Y点的像素值。我还注意到,颜色顺序是BGRA(不是RGBA),所以我可以得到这些值,它

我有点头疼。我正在使用iPhone来拍摄使用AVFoundation的实时图像。在captureOutput函数中,我根据Apple developer notes从sampleBuffer创建一个UIImage-如果我将此图像保存到相机卷中,我可以查看它,并且它看起来与预期的一样(我不是每次调用captureOutput时都这样做!)。但是我不想保存它,而是想看看它的一些像素值

再次使用苹果笔记,我得到了X&Y点的像素值。我还注意到,颜色顺序是BGRA(不是RGBA),所以我可以得到这些值,它们看起来都正常,只是它们似乎是错误的

如果我将完全相同的图像保存到相机卷中,通过电子邮件发送给我自己,然后将其放入我的xcode项目中,这样我就可以在我的应用程序中从中创建UIImage,然后我可以通过完全相同的一组方法,为像素RGB数据获取不同的图形集(我确实为这张图像切换回了RGBA,但即使考虑到BGRA错误,数字也不匹配)-为了确认我在PC上使用C#创建了相同的例程,使用了相同的图像并得到了相同的数字

在内存中创建的UIImage与随后保存并重新加载的UIImage之间是否存在差异


谢谢你的建议!

嘿,我刚刚偶然发现了你的问题。我最近读了这篇文章的第1部分和第2部分,请看一看。我认为它会回答你的问题。干杯。嘿,我刚刚偶然发现了你的问题。我最近读了这篇文章的第1部分和第2部分,请看一看。我认为它会回答你的问题。C海尔斯。