Ios UIM图像导出为电影错误 问题
我的Ios UIM图像导出为电影错误 问题,ios,objective-c,uiimage,avfoundation,avassetwriter,Ios,Objective C,Uiimage,Avfoundation,Avassetwriter,我的AVAssetWriter在使用AvassetWriterInputPixelBufferAdapter向其添加5个左右的图像后失败,我不知道为什么 细节 这个流行的问题有帮助,但不符合我的需要: 一切都按计划进行,我甚至延迟assetWriterInput,直到它能够处理更多媒体。 但由于某些原因,它总是在5张左右的图像后失败。我使用的图像是从GIF中提取的帧 代码 这是我的迭代代码: -(void)writeImageData { __block int i = 0;
AVAssetWriter
在使用AvassetWriterInputPixelBufferAdapter
向其添加5个左右的图像后失败,我不知道为什么
细节
这个流行的问题有帮助,但不符合我的需要:
一切都按计划进行,我甚至延迟assetWriterInput,直到它能够处理更多媒体。
但由于某些原因,它总是在5张左右的图像后失败。我使用的图像是从GIF中提取的帧
代码
这是我的迭代代码:
-(void)writeImageData
{
__block int i = 0;
videoQueue = dispatch_queue_create("com.videoQueue", DISPATCH_QUEUE_SERIAL);
[self.writerInput requestMediaDataWhenReadyOnQueue:dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0) usingBlock:^{
while (self.writerInput.readyForMoreMediaData) {
if (i >= self.imageRefs.count){
[self endSession];
videoQueue = nil;
[self saveToLibraryWithCompletion:^{
NSLog(@"Saved");
}];
break;
}
if (self.writerInput.readyForMoreMediaData){
CGImageRef imageRef = (__bridge CGImageRef)self.imageRefs[i];
CVPixelBufferRef buffer = [self pixelBufferFromCGImageRef:imageRef];
CGFloat timeScale = (CGFloat)self.imageRefs.count / self.originalDuration;
BOOL accepted = [self.adaptor appendPixelBuffer:buffer withPresentationTime:CMTimeMake(i, timeScale)];
CVBufferRelease(buffer);
if (!accepted){
NSLog(@"Buffer did not add %@, index %d, timescale %f", self.writer.error, i, timeScale);
}else{
NSLog(@"Buffer did nothing wrong");
}
i++;
}
}
}];
}
我的其他代码位与上面链接中的代码匹配。这只是略有不同:
-(CVPixelBufferRef)pixelBufferFromCGImageRef:(CGImageRef)image
{
NSDictionary *options = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithBool:YES], kCVPixelBufferCGImageCompatibilityKey,
[NSNumber numberWithBool:YES], kCVPixelBufferCGBitmapContextCompatibilityKey,
nil];
CVPixelBufferRef pxbuffer = NULL;
CGFloat width = 640;
CGFloat height = 640;
CVReturn status = CVPixelBufferCreate(kCFAllocatorDefault, width,
height, kCVPixelFormatType_32ARGB, (__bridge CFDictionaryRef) options,
&pxbuffer);
NSParameterAssert(status == kCVReturnSuccess && pxbuffer != NULL);
CVPixelBufferLockBaseAddress(pxbuffer, 0);
void *pxdata = CVPixelBufferGetBaseAddress(pxbuffer);
NSParameterAssert(pxdata != NULL);
CGColorSpaceRef rgbColorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(pxdata, width,
height, 8, 4*width, rgbColorSpace,
kCGImageAlphaNoneSkipFirst);
NSParameterAssert(context);
CGContextDrawImage(context, CGRectMake(0, 0, width,
height), image);
CGColorSpaceRelease(rgbColorSpace);
CGContextRelease(context);
CVPixelBufferUnlockBaseAddress(pxbuffer, 0);
return pxbuffer;
}有一件事对我来说很突出,那就是你使用了
CMTimeMake(adjustedTime,1)
您需要正确计算每帧的时间。请注意,CMTime
接受两个整数,并将它们作为浮点值传入,以截断它们
第二个问题是您没有使用串行调度队列:)如果您解释了这个问题,会有所帮助。说“它失败了”并不能告诉我们任何事情。提供更多细节。错误?崩溃iPhone爆炸?什么?调用了日志“缓冲区未添加”。AVAssetWriter的错误出现了,但它只是说“操作无法完成”。发生了一个未知错误。我注意到的一件事是您使用了
CMTimeMake(adjustedTime,1)
。您可以尝试将其更改为CMTimeMake(adjustedTime*24,24)
?让我知道结果!Jack,这大大提高了缓冲区在失败之前通过的帧数。在它将通过3-8帧之前,现在它将完成15+帧。它甚至通过了其中的一些。为什么会这样?@JackWu哇。嗯。成功率100%。谢谢你的帮助,杰克。