Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/291.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python使用exec()提高内存使用率_Python_Python 3.x_Memory Management_Memory Leaks_Exec - Fatal编程技术网

Python使用exec()提高内存使用率

Python使用exec()提高内存使用率,python,python-3.x,memory-management,memory-leaks,exec,Python,Python 3.x,Memory Management,Memory Leaks,Exec,我在Python3.7中运行一个.py格式的脚本时遇到了一些问题。为了解决这个问题,我将程序划分为一些.py文件,即使存在内存泄漏 我有一个网页抓取程序,它每隔一段时间运行一些脚本,所以它必须24小时/7天运行,但随着16mb/小时内存的增加,它变得很难 Scrapy.py有一些要求等 我认为每次循环结束时,这段代码都会关闭'scrapy.py',但似乎不是因为这个程序消耗内存 我必须在我的笔记本电脑上测试,但这就是全部代码吗?它似乎每5秒就会启动一次scrapy.py,所以如果它仍在运行,您会

我在Python3.7中运行一个.py格式的脚本时遇到了一些问题。为了解决这个问题,我将程序划分为一些.py文件,即使存在内存泄漏

我有一个网页抓取程序,它每隔一段时间运行一些脚本,所以它必须24小时/7天运行,但随着16mb/小时内存的增加,它变得很难

Scrapy.py有一些要求等

我认为每次循环结束时,这段代码都会关闭'scrapy.py',但似乎不是因为这个程序消耗内存


我必须在我的笔记本电脑上测试,但这就是全部代码吗?它似乎每5秒就会启动一次
scrapy.py
,所以如果它仍在运行,您会产生更多的进程吗?你在运行什么操作系统?你们检查了进程列表了吗?我从VM使用Linux。程序的机制是:->exec(scrapy.py)(等待报废时间)->exec(x.py),exec(y.py),当所有的结束(大约在5秒内)回到时间。睡眠(5)然后再次执行相同的过程。当我在内存泄漏的情况下运行其他脚本,而在没有时间等待的情况下运行True时,我不会丢失内存。这很奇怪,因为在这种情况下,内存是干净的
while True:
    with open('scrapy.py') as op:
        exec(op.read())
    time.sleep(5)