如何限制Python熊猫的内存使用
目前我正在使用panda操作来合并两个csv文件,它需要大约4.6GB的RAM,我想将RAM的使用限制为2GB,比如java-Xmax和-Xmin 他们有什么办法吗 提前感谢使用: EDIT:实际上,我不确定如何限制Python熊猫的内存使用,python,pandas,Python,Pandas,目前我正在使用panda操作来合并两个csv文件,它需要大约4.6GB的RAM,我想将RAM的使用限制为2GB,比如java-Xmax和-Xmin 他们有什么办法吗 提前感谢使用: EDIT:实际上,我不确定setrlimit是否控制CPU或RAM的使用。但是,您可以从shell中使用ulimit: ulimit -v 128k python script.py ulimit -v unlimited 编辑:请注意,这是针对Linux系统的,我不确定如何进行编辑,或者是否可以在Windows上
setrlimit
是否控制CPU或RAM的使用。但是,您可以从shell中使用ulimit
:
ulimit -v 128k
python script.py
ulimit -v unlimited
编辑:请注意,这是针对Linux系统的,我不确定如何进行编辑,或者是否可以在Windows上进行编辑。如果可以分块处理数据集,就可以进行编辑,否则,您的数据将在内存中完全读取,然后进行处理。这也尝试过,但没有使用指定的内存大小限制的选项。在pandas中没有java的
-Xmax
和-Xmin
等价物。你想如何合并你的CSV文件?可以分块合并吗?如果可以,你可以指定一个较小的分块,那么熊猫就不需要那么多内存了?如果我记得很清楚,windows中没有办法控制内存量used@Noobie在Windows中,这可能是真的。这是针对Linux的,我将进行更新以澄清。@Noobie是他们的任何产品way@SubinSoman发布您的代码,我可以帮助您减少内存使用。我想我知道你为什么会有问题。
ulimit -v 128k
python script.py
ulimit -v unlimited