Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/284.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
计算Python dict或list使用的总RAM_Python_Memory_Dictionary - Fatal编程技术网

计算Python dict或list使用的总RAM

计算Python dict或list使用的总RAM,python,memory,dictionary,Python,Memory,Dictionary,我的问题: 我正在编写一个简单的Python工具,帮助我将数据可视化为许多参数的函数。参数中的每一个更改都涉及大量的时间,因此我希望将每个步骤的结果图像和支持数据缓存在字典中。但我担心这本词典会随着时间的推移变得太大。我的大部分数据都是Numpy数组的形式 我的问题: 如何计算Python字典使用的总字节数。字典本身可能包含列表和其他字典,每个字典都包含存储在Numpy数组中的数据 想法?使用诸如或之类的内存分析器

我的问题: 我正在编写一个简单的Python工具,帮助我将数据可视化为许多参数的函数。参数中的每一个更改都涉及大量的时间,因此我希望将每个步骤的结果图像和支持数据缓存在字典中。但我担心这本词典会随着时间的推移变得太大。我的大部分数据都是Numpy数组的形式

我的问题: 如何计算Python字典使用的总字节数。字典本身可能包含列表和其他字典,每个字典都包含存储在Numpy数组中的数据


想法?

使用诸如或之类的内存分析器