Python pandas中我的.csv文件的内存使用量大于我的RAM。这怎么可能?
请帮我理解。我有4GB内存。我读了一个完整的csv文件,它的大小是2.1GBPython pandas中我的.csv文件的内存使用量大于我的RAM。这怎么可能?,python,pandas,memory,Python,Pandas,Memory,请帮我理解。我有4GB内存。我读了一个完整的csv文件,它的大小是2.1GB data = pd.read_csv('~/data.csv') 现在,当我使用以下代码检查文件的内存使用情况时: data.memory_usage(deep=True).sum() 它返回6012181982字节或6GB。内存使用量怎么可能大于我的实际RAM,并且我不会得到任何内存错误?如果删除sum(),会发生什么情况@在这种情况下,我只得到每列的内存使用量(在我的情况下是23)。这些加起来等于6GB。并不是
data = pd.read_csv('~/data.csv')
现在,当我使用以下代码检查文件的内存使用情况时:
data.memory_usage(deep=True).sum()
它返回6012181982字节或6GB。内存使用量怎么可能大于我的实际RAM,并且我不会得到任何内存错误?如果删除
sum()
,会发生什么情况@在这种情况下,我只得到每列的内存使用量(在我的情况下是23)。这些加起来等于6GB。并不是每个对象都在运行时使用。