如何解决加载比RAM小一点的大型Rdata文件的问题?

如何解决加载比RAM小一点的大型Rdata文件的问题?,r,rstudio,loading,rdata,R,Rstudio,Loading,Rdata,我有一个大的*.Rdata文件,大小为15 Gb(15'284'533'248字节),在MacBook Pro上用RStudio创建,内存为8 Gb,其中包含多个数据帧列表 现在我想load()将该文件加载到带有32 Gb RAM的PC上的RStudio中,但只有RAM膨胀到无法测量的程度,最后我得到了以下结果: Error: cannot allocate vector of size 78 Kb 漫画是,当我在Mac上重新加载它时,它工作得非常好 怎么了 [Edit1]Mac上的RStud

我有一个大的*.Rdata文件,大小为15 Gb(15'284'533'248字节),在MacBook Pro上用RStudio创建,内存为8 Gb,其中包含多个数据帧列表

现在我想
load()
将该文件加载到带有32 Gb RAM的PC上的RStudio中,但只有RAM膨胀到无法测量的程度,最后我得到了以下结果:

Error: cannot allocate vector of size 78 Kb
漫画是,当我在Mac上重新加载它时,它工作得非常好

怎么了

[Edit1]Mac上的RStudio 1.0.136,PC上的RStudio 1.1.383。两者都是R3.4.2

[Edit2]具有8GB RAM的Mac电脑屏幕截图


您是如何保存Rdata文件的(用于压缩的参数是什么/etc)?另外:15GB Rdata文件无法加载到8GB Mac上的内存中。只需
保存(file1、file2、file3…,“data.Rdata”)
。这意味着压缩级别为6,这很可能意味着实际数据ID达到或超过32GB的内存限制。而且,在8GB MacBook Pro的内存中根本不可能有这样的Rdata文件。无论如何,这种大小的Rdata文件不会加载到任何您拥有的系统中,并且可能需要在具有64GB RAM的系统上使用,才能对其进行实际分析。我发现从长远来看,使用单独的RDS文件和tgz文件会更好。看起来你的Mac比你的Windows更多地使用交换内存。不确定我是否100%正确,但我认为在Mac上,它的大小没有真正的上限。Windows的空间确实最大,另请参见如何保存Rdata文件(用于压缩的参数是什么/etc)?另外:15GB Rdata文件无法加载到8GB Mac上的内存中。只需
保存(file1、file2、file3…,“data.Rdata”)
。这意味着压缩级别为6,这很可能意味着实际数据ID达到或超过32GB的内存限制。而且,在8GB MacBook Pro的内存中根本不可能有这样的Rdata文件。无论如何,这种大小的Rdata文件不会加载到任何您拥有的系统中,并且可能需要在具有64GB RAM的系统上使用,才能对其进行实际分析。我发现从长远来看,使用单独的RDS文件和tgz文件会更好。看起来你的Mac比你的Windows更多地使用交换内存。不确定我是否100%正确,但我认为在Mac上,它的大小没有真正的上限。Windows的空间确实最大,请参见