Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/359.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何限制Python熊猫的内存使用_Python_Pandas - Fatal编程技术网

如何限制Python熊猫的内存使用

如何限制Python熊猫的内存使用,python,pandas,Python,Pandas,目前我正在使用panda操作来合并两个csv文件,它需要大约4.6GB的RAM,我想将RAM的使用限制为2GB,比如java-Xmax和-Xmin 他们有什么办法吗 提前感谢使用: EDIT:实际上,我不确定setrlimit是否控制CPU或RAM的使用。但是,您可以从shell中使用ulimit: ulimit -v 128k python script.py ulimit -v unlimited 编辑:请注意,这是针对Linux系统的,我不确定如何进行编辑,或者是否可以在Windows上

目前我正在使用panda操作来合并两个csv文件,它需要大约4.6GB的RAM,我想将RAM的使用限制为2GB,比如java-Xmax和-Xmin

他们有什么办法吗

提前感谢

使用:

EDIT:实际上,我不确定
setrlimit
是否控制CPU或RAM的使用。但是,您可以从shell中使用
ulimit

ulimit -v 128k
python script.py
ulimit -v unlimited

编辑:请注意,这是针对Linux系统的,我不确定如何进行编辑,或者是否可以在Windows上进行编辑。

如果可以分块处理数据集,就可以进行编辑,否则,您的数据将在内存中完全读取,然后进行处理。这也尝试过,但没有使用指定的内存大小限制的选项。在pandas中没有java的
-Xmax
-Xmin
等价物。你想如何合并你的CSV文件?可以分块合并吗?如果可以,你可以指定一个较小的分块,那么熊猫就不需要那么多内存了?如果我记得很清楚,windows中没有办法控制内存量used@Noobie在Windows中,这可能是真的。这是针对Linux的,我将进行更新以澄清。@Noobie是他们的任何产品way@SubinSoman发布您的代码,我可以帮助您减少内存使用。我想我知道你为什么会有问题。
ulimit -v 128k
python script.py
ulimit -v unlimited