Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/317.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
大型项目的函数跟踪和内存评测Python_Python_Out Of Memory_Trace_Memory Profiling - Fatal编程技术网

大型项目的函数跟踪和内存评测Python

大型项目的函数跟踪和内存评测Python,python,out-of-memory,trace,memory-profiling,Python,Out Of Memory,Trace,Memory Profiling,我有一个Python大型项目(在Linux中),它将很容易地消耗大量内存(30G+)。该程序将运行所有系统内存,然后被终止。可以想象,这很难调试或诊断问题的位置 我曾尝试对此执行内存配置文件,但问题是,一旦程序结束,该程序就会给出结果,而且项目很大,我无法在每个函数上放置@profile decorator 我还尝试了使用pdb进行跟踪,希望在程序死机时获得更好的堆栈信息,但这并没有给出足够的结果 python有类似Valgrind的东西吗?或者通过某种方式在程序内存不足之前获取哪些函数正在使用

我有一个Python大型项目(在Linux中),它将很容易地消耗大量内存(30G+)。该程序将运行所有系统内存,然后被终止。可以想象,这很难调试或诊断问题的位置

我曾尝试对此执行内存配置文件,但问题是,一旦程序结束,该程序就会给出结果,而且项目很大,我无法在每个函数上放置@profile decorator

我还尝试了使用pdb进行跟踪,希望在程序死机时获得更好的堆栈信息,但这并没有给出足够的结果

python有类似Valgrind的东西吗?或者通过某种方式在程序内存不足之前获取哪些函数正在使用这些内存

原谅我的英语)