Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/335.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python pandas中我的.csv文件的内存使用量大于我的RAM。这怎么可能?_Python_Pandas_Memory - Fatal编程技术网

Python pandas中我的.csv文件的内存使用量大于我的RAM。这怎么可能?

Python pandas中我的.csv文件的内存使用量大于我的RAM。这怎么可能?,python,pandas,memory,Python,Pandas,Memory,请帮我理解。我有4GB内存。我读了一个完整的csv文件,它的大小是2.1GB data = pd.read_csv('~/data.csv') 现在,当我使用以下代码检查文件的内存使用情况时: data.memory_usage(deep=True).sum() 它返回6012181982字节或6GB。内存使用量怎么可能大于我的实际RAM,并且我不会得到任何内存错误?如果删除sum(),会发生什么情况@在这种情况下,我只得到每列的内存使用量(在我的情况下是23)。这些加起来等于6GB。并不是

请帮我理解。我有4GB内存。我读了一个完整的csv文件,它的大小是2.1GB

data = pd.read_csv('~/data.csv')
现在,当我使用以下代码检查文件的内存使用情况时:

data.memory_usage(deep=True).sum()

它返回6012181982字节或6GB。内存使用量怎么可能大于我的实际RAM,并且我不会得到任何内存错误?

如果删除
sum()
,会发生什么情况@在这种情况下,我只得到每列的内存使用量(在我的情况下是23)。这些加起来等于6GB。并不是每个对象都在运行时使用。