大型项目的函数跟踪和内存评测Python
我有一个Python大型项目(在Linux中),它将很容易地消耗大量内存(30G+)。该程序将运行所有系统内存,然后被终止。可以想象,这很难调试或诊断问题的位置 我曾尝试对此执行内存配置文件,但问题是,一旦程序结束,该程序就会给出结果,而且项目很大,我无法在每个函数上放置@profile decorator 我还尝试了使用pdb进行跟踪,希望在程序死机时获得更好的堆栈信息,但这并没有给出足够的结果 python有类似Valgrind的东西吗?或者通过某种方式在程序内存不足之前获取哪些函数正在使用这些内存 原谅我的英语)大型项目的函数跟踪和内存评测Python,python,out-of-memory,trace,memory-profiling,Python,Out Of Memory,Trace,Memory Profiling,我有一个Python大型项目(在Linux中),它将很容易地消耗大量内存(30G+)。该程序将运行所有系统内存,然后被终止。可以想象,这很难调试或诊断问题的位置 我曾尝试对此执行内存配置文件,但问题是,一旦程序结束,该程序就会给出结果,而且项目很大,我无法在每个函数上放置@profile decorator 我还尝试了使用pdb进行跟踪,希望在程序死机时获得更好的堆栈信息,但这并没有给出足够的结果 python有类似Valgrind的东西吗?或者通过某种方式在程序内存不足之前获取哪些函数正在使用