Ios 在原始音频文件中以给定偏移量插入音频剪辑
我正在开发一个具有录制功能的应用程序。现在我需要在特定的时间和位置用另一个剪辑来编辑它。i、 我有20秒的录音,现在想在第10秒用另一个音频文件替换它,持续时间为5秒,所以我导出的音频文件将像第一个10秒是我录制的音频,第10-15秒是我必须替换为原始的剪辑,然后第15-20秒再次是我录制的文件 请帮我找到附近的解决方案 提前谢谢 这是我的密码 -(无效)在第一偏移量:(CMTime)偏移量1和第二偏移量:(CMTime)偏移量2处合并并保存VideoUrl{Ios 在原始音频文件中以给定偏移量插入音频剪辑,ios,audio,replace,merge,offset,Ios,Audio,Replace,Merge,Offset,我正在开发一个具有录制功能的应用程序。现在我需要在特定的时间和位置用另一个剪辑来编辑它。i、 我有20秒的录音,现在想在第10秒用另一个音频文件替换它,持续时间为5秒,所以我导出的音频文件将像第一个10秒是我录制的音频,第10-15秒是我必须替换为原始的剪辑,然后第15-20秒再次是我录制的文件 请帮我找到附近的解决方案 提前谢谢 这是我的密码 -(无效)在第一偏移量:(CMTime)偏移量1和第二偏移量:(CMTime)偏移量2处合并并保存VideoUrl{ }`您必须首先从特定偏移量修剪音频
}`您必须首先从特定偏移量修剪音频,此url可能会对您有所帮助
然后合并另一个音频。您必须首先从特定偏移量修剪音频,此url可能对您有帮助
然后合并您的另一个音频。能否请您详细说明您为自己解决问题所做的具体工作,以及预期结果与实际结果的不同之处?仅仅从一些代码中就很难分辨出来。你能详细说明一下你自己到底做了些什么来解决这个问题,以及预期结果与实际结果的不同之处吗?这真的很难从一些代码中分辨出来。
NSURL *video_url = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"Source" ofType:@"mp4"]];
AVMutableComposition* mixComposition = [AVMutableComposition composition];
NSURL *source_audio_url=[NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"Source" ofType:@"mp3"]];
NSURL *audio_url=[NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"Asteroid_Sound" ofType:@"mp3"]];
audioAsset = [[AVURLAsset alloc]initWithURL:audio_url options:nil];
source_audioAsset = [[AVURLAsset alloc]initWithURL:source_audio_url options:nil];
CMTimeRange audio_timeRange = CMTimeRangeMake(kCMTimeZero, source_audioAsset.duration);
AVMutableCompositionTrack *b_compositionAudioTrack = [mixComposition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
[b_compositionAudioTrack insertTimeRange:audio_timeRange ofTrack:[[source_audioAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0] atTime:kCMTimeZero error:nil];
audio_timeRange = CMTimeRangeMake(kCMTimeZero, audioAsset.duration);
[b_compositionAudioTrack insertTimeRange:audio_timeRange ofTrack:[[audioAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0] atTime:offset1 error:nil];
[b_compositionAudioTrack insertTimeRange:audio_timeRange ofTrack:[[audioAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0] atTime:offset2 error:nil];
videoAsset = [[AVURLAsset alloc]initWithURL:video_url options:nil];
CMTimeRange video_timeRange = CMTimeRangeMake(kCMTimeZero,videoAsset.duration);
AVMutableCompositionTrack *a_compositionVideoTrack = [mixComposition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
[a_compositionVideoTrack insertTimeRange:video_timeRange ofTrack:[[videoAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] atTime:kCMTimeZero error:nil];
NSArray *dirPaths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
NSString *docsDir = [dirPaths objectAtIndex:0];
NSString *outputFilePath = [docsDir stringByAppendingPathComponent:[NSString stringWithFormat:@"FinalVideo.mov"]];
NSURL *outputFileUrl = [NSURL fileURLWithPath:outputFilePath];
if ([[NSFileManager defaultManager] fileExistsAtPath:outputFilePath])
[[NSFileManager defaultManager] removeItemAtPath:outputFilePath error:nil];
AVAssetExportSession* _assetExport = [[AVAssetExportSession alloc] initWithAsset:mixComposition presetName:AVAssetExportPresetHighestQuality];
_assetExport.outputFileType = @"com.apple.quicktime-movie";
_assetExport.outputURL = outputFileUrl;
[_assetExport exportAsynchronouslyWithCompletionHandler:
^(void ) {
dispatch_async(dispatch_get_main_queue(), ^{
[self exportDidFinish:_assetExport];
});
}];