Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/ruby-on-rails/59.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby on rails 合并大量PDF Rails_Ruby On Rails_Ruby_Pdf_Prawn - Fatal编程技术网

Ruby on rails 合并大量PDF Rails

Ruby on rails 合并大量PDF Rails,ruby-on-rails,ruby,pdf,prawn,Ruby On Rails,Ruby,Pdf,Prawn,我试着用对虾把PDF合并在一起。 然而,我注意到内存消耗随着PDF数量的增加而线性增加,我的电脑的CPU利用率也达到了100%。 我的问题是,当试图合并大约10000个大小为40kb的PDF文件时,它会耗尽内存 合并PDF的示例代码 我尝试将解决方案与我的gem集成,但仍然没有成功 将PDF合并在一起的问题是相当没有意义的,但是我找不到任何适用于这个问题的ruby gems。pdf合并也面临同样的问题 是否有任何方法可以优化代码,或者合并的文件直接进入磁盘而不是内存。或者其他针对我的pdf生成/

我试着用对虾把PDF合并在一起。 然而,我注意到内存消耗随着PDF数量的增加而线性增加,我的电脑的CPU利用率也达到了100%。 我的问题是,当试图合并大约10000个大小为40kb的PDF文件时,它会耗尽内存

合并PDF的示例代码

我尝试将解决方案与我的gem集成,但仍然没有成功

将PDF合并在一起的问题是相当没有意义的,但是我找不到任何适用于这个问题的ruby gems。pdf合并也面临同样的问题


是否有任何方法可以优化代码,或者合并的文件直接进入磁盘而不是内存。或者其他针对我的pdf生成/合并需求进行了优化的建议

一个包含10000页或更多页面的pdf文件是否可读?首先,我认为创建如此巨大的pdf文件的想法是错误的。是的,我能够打开并阅读生成的10000页pdf文件。但有时,在生成过程中,prawn会抛出内存不足错误即使如此,我认为这样做是错误的。你可以尝试使用外部实用程序,如pdftk、pdfunite、poppler等。我同意@sawa的观点,从用户体验的角度来看,这么大的PDF不是一个好主意-也就是说,我过去使用过pdftk,但不太喜欢它。我建议围绕Qpdf构建一些东西