Ios UIM图像导出为电影错误 问题

Ios UIM图像导出为电影错误 问题,ios,objective-c,uiimage,avfoundation,avassetwriter,Ios,Objective C,Uiimage,Avfoundation,Avassetwriter,我的AVAssetWriter在使用AvassetWriterInputPixelBufferAdapter向其添加5个左右的图像后失败,我不知道为什么 细节 这个流行的问题有帮助,但不符合我的需要: 一切都按计划进行,我甚至延迟assetWriterInput,直到它能够处理更多媒体。 但由于某些原因,它总是在5张左右的图像后失败。我使用的图像是从GIF中提取的帧 代码 这是我的迭代代码: -(void)writeImageData { __block int i = 0;

我的
AVAssetWriter
在使用
AvassetWriterInputPixelBufferAdapter
向其添加5个左右的图像后失败,我不知道为什么

细节 这个流行的问题有帮助,但不符合我的需要:

一切都按计划进行,我甚至延迟assetWriterInput,直到它能够处理更多媒体。 但由于某些原因,它总是在5张左右的图像后失败。我使用的图像是从GIF中提取的帧

代码 这是我的迭代代码:

-(void)writeImageData
{

     __block int i = 0;
     videoQueue = dispatch_queue_create("com.videoQueue", DISPATCH_QUEUE_SERIAL);
    [self.writerInput requestMediaDataWhenReadyOnQueue:dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0) usingBlock:^{

     while (self.writerInput.readyForMoreMediaData) {
        if (i >= self.imageRefs.count){
            [self endSession];
            videoQueue = nil;
            [self saveToLibraryWithCompletion:^{
                NSLog(@"Saved");
            }];
            break;
        }

        if (self.writerInput.readyForMoreMediaData){
            CGImageRef imageRef = (__bridge CGImageRef)self.imageRefs[i];
            CVPixelBufferRef buffer = [self pixelBufferFromCGImageRef:imageRef];


            CGFloat timeScale = (CGFloat)self.imageRefs.count / self.originalDuration;
            BOOL accepted = [self.adaptor appendPixelBuffer:buffer withPresentationTime:CMTimeMake(i, timeScale)];
            CVBufferRelease(buffer);
            if (!accepted){
                NSLog(@"Buffer did not add %@, index %d, timescale %f", self.writer.error, i, timeScale);
            }else{
                NSLog(@"Buffer did nothing wrong");
            }
            i++;
        }
    }
}];
}

我的其他代码位与上面链接中的代码匹配。这只是略有不同:

-(CVPixelBufferRef)pixelBufferFromCGImageRef:(CGImageRef)image
{
   NSDictionary *options = [NSDictionary dictionaryWithObjectsAndKeys:
                         [NSNumber numberWithBool:YES], kCVPixelBufferCGImageCompatibilityKey,
                         [NSNumber numberWithBool:YES], kCVPixelBufferCGBitmapContextCompatibilityKey,
                         nil];
   CVPixelBufferRef pxbuffer = NULL;
   CGFloat width = 640;
   CGFloat height = 640;
   CVReturn status = CVPixelBufferCreate(kCFAllocatorDefault, width,
                                      height, kCVPixelFormatType_32ARGB, (__bridge CFDictionaryRef) options,
                                      &pxbuffer);

   NSParameterAssert(status == kCVReturnSuccess && pxbuffer != NULL);

   CVPixelBufferLockBaseAddress(pxbuffer, 0);
   void *pxdata = CVPixelBufferGetBaseAddress(pxbuffer);
   NSParameterAssert(pxdata != NULL);

   CGColorSpaceRef rgbColorSpace = CGColorSpaceCreateDeviceRGB();
   CGContextRef context = CGBitmapContextCreate(pxdata, width,
                                             height, 8, 4*width, rgbColorSpace,
                                             kCGImageAlphaNoneSkipFirst);
   NSParameterAssert(context);

   CGContextDrawImage(context, CGRectMake(0, 0, width,
                                       height), image);
   CGColorSpaceRelease(rgbColorSpace);
   CGContextRelease(context);

   CVPixelBufferUnlockBaseAddress(pxbuffer, 0);
   return pxbuffer;

}有一件事对我来说很突出,那就是你使用了
CMTimeMake(adjustedTime,1)

您需要正确计算每帧的时间。请注意,
CMTime
接受两个整数,并将它们作为浮点值传入,以截断它们


第二个问题是您没有使用串行调度队列:)

如果您解释了这个问题,会有所帮助。说“它失败了”并不能告诉我们任何事情。提供更多细节。错误?崩溃iPhone爆炸?什么?调用了日志“缓冲区未添加”。AVAssetWriter的错误出现了,但它只是说“操作无法完成”。发生了一个未知错误。我注意到的一件事是您使用了
CMTimeMake(adjustedTime,1)
。您可以尝试将其更改为
CMTimeMake(adjustedTime*24,24)
?让我知道结果!Jack,这大大提高了缓冲区在失败之前通过的帧数。在它将通过3-8帧之前,现在它将完成15+帧。它甚至通过了其中的一些。为什么会这样?@JackWu哇。嗯。成功率100%。谢谢你的帮助,杰克。