Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/68.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
“风险”是什么;已达到31249Mb的总分配:请参阅帮助(memory.size)";_R_Memory Management_Out Of Memory - Fatal编程技术网

“风险”是什么;已达到31249Mb的总分配:请参阅帮助(memory.size)";

“风险”是什么;已达到31249Mb的总分配:请参阅帮助(memory.size)";,r,memory-management,out-of-memory,R,Memory Management,Out Of Memory,在使用30gb内存的windows机器上处理修改大型对象(5gb)时,有几次我遇到了一个错误 已达到31249Mb的总分配:请参阅帮助(memory.size)。然而,这个过程似乎完成了,即,我得到了一个具有正确值的文件。通过将一个大文件的每一个部分切碎并与正确的部分进行比较来检查它是否返回了正确的内容,这是非常耗时的,但是当我完成这项工作时,返回的对象似乎与我的预期相符 这个错误会带来什么风险/副作用?我应该检查什么?是因为我得到了预期的回报,流程会自动恢复,还是错误会变得更加微妙?我的整个分

在使用30gb内存的windows机器上处理修改大型对象(5gb)时,有几次我遇到了一个错误
已达到31249Mb的总分配:请参阅帮助(memory.size)
。然而,这个过程似乎完成了,即,我得到了一个具有正确值的文件。通过将一个大文件的每一个部分切碎并与正确的部分进行比较来检查它是否返回了正确的内容,这是非常耗时的,但是当我完成这项工作时,返回的对象似乎与我的预期相符

这个错误会带来什么风险/副作用?我应该检查什么?是因为我得到了预期的回报,流程会自动恢复,还是错误会变得更加微妙?我的整个分析过程都是使用
tidyverse
编写的,这是否意味着我可以依靠Hadley等人提供的良好错误处理,这就是为什么我的过程是警告的,但也是完成的

注意:我没有包括对MWE的任何尝试,因为每台机器在可用内存方面都有不同的限制,尽管如果有建议,我很乐意展示和MWE这种过程。

使用
内存。限制(x)
其中
x
是提供给它的MB内存量

有关更多详细信息,请参阅链接:

谢谢,但我知道这一点。我的问题是关于是否发生此错误的错误检查,但返回一个显然正确处理的对象。此外,我的内存限制似乎设置正确:30Gb左右==31249MB对不起,我没有看到问题的第二部分。有些函数在读取和使用数据时会大大扩展数据,这就是我在这里看到的情况。我使用过的最大对象是2.2GB,我没有遇到这个问题。将流程分解成块而不是在块中进行错误检查有意义吗?