为Mac增加R中的内存限制

为Mac增加R中的内存限制,r,macos,memory,R,Macos,Memory,我一直在看在线发布的关于如何增加R的内存限制的解决方案,但这些解决方案似乎只适用于或 我使用的是Mac Mojave版本10.14.5,8GB内存,2.3 GHz Intel Core i5。我的R studio是64位的,1.1.453版 下面是来自gc函数的报告: > gc() used (Mb) gc trigger (Mb) limit (Mb) max used (Mb) Ncells 6453699 344.7 11897884 635

我一直在看在线发布的关于如何增加R的内存限制的解决方案,但这些解决方案似乎只适用于或

我使用的是Mac Mojave版本10.14.5,8GB内存,2.3 GHz Intel Core i5。我的R studio是64位的,1.1.453版

下面是来自gc函数的报告:

> gc()
           used  (Mb) gc trigger   (Mb) limit (Mb)  max used   (Mb)
Ncells  6453699 344.7   11897884  635.5         NA  11897884  635.5
Vcells 44221701 337.4  179064532 1366.2       7168 219267441 1672.9
我想知道为什么NCELL和VCELL的限制这么低——635.5Mb和1672.9Mb?这是否意味着R当前仅使用该内存量?这是我的怀疑,所以我想增加它的限制

我试图做的是:将一个227795行的数据框与另一个行数相同但列数不同的数据框合并。这给了我一个错误:

Error: vector memory exhausted (limit reached?) 
当我试图在227796组坐标之间建立一个较大的距离矩阵时,也会发生此错误


有没有人有办法提高R在mac中的内存限制?如果Mac有
memory.limit()
版本那就太好了

建议的复制品:还有,你在问题中没有提到的其他东西,所以我想检查一下——你还有什么打开和使用的内存?活动监视器实用程序显示什么?当您说要将227795的数据帧与另一个具有不同列的数据帧合并时,您是否正在进行任何合并??如果你在做交叉连接,那将是一个52万亿行的结果,这将耗尽比你大得多的系统的内存。你在说什么?每把钥匙里有多少把重复的钥匙?您是在使用
data.table
进行内存效率最高的联接,还是其他什么?