如何在运行一系列YOLO预测的python中清理ram内存?

如何在运行一系列YOLO预测的python中清理ram内存?,python,memory,garbage-collection,ram,yolo,Python,Memory,Garbage Collection,Ram,Yolo,我正试图在连续数百个jpeg上一个接一个地运行YOLO预测。在下面的代码中,predict.py为参数中的文件名创建一个带有预测的jpeg。 这段代码扫描整个文件夹,并逐个文件进行扫描。 长话短说,30个JPEG后速度变慢,任务管理器显示正在使用10GB ram 非常感谢您的帮助 一旦创建了每个文件,我希望在下一次迭代中使用“新鲜”干净的内存-以下面的方式使用gc.collect不会改变任何东西 import os import predict import gc

我正试图在连续数百个jpeg上一个接一个地运行YOLO预测。在下面的代码中,predict.py为参数中的文件名创建一个带有预测的jpeg。 这段代码扫描整个文件夹,并逐个文件进行扫描。 长话短说,30个JPEG后速度变慢,任务管理器显示正在使用10GB ram

非常感谢您的帮助

一旦创建了每个文件,我希望在下一次迭代中使用“新鲜”干净的内存-以下面的方式使用gc.collect不会改变任何东西

    import os
    import predict
    import gc

    for root, dirs, files in os.walk("images\edited images"): 
       i=1
       for name in files:
           predict.main(os.path.join(root, name))
           print(os.path.join(root, name))
           i=i+1
           print(i)
           gc.collect()
这个解决了这个问题: 使用

                K.clear_session()
                gc.collect()
在每一次投票后


当从keras导入后端时,作为K

预测模块从何而来?