如何在pytorch中不留下存储足迹?

如何在pytorch中不留下存储足迹?,pytorch,lightning,Pytorch,Lightning,我在pytorch中运行一个时间融合转换器,我需要每隔x个时间间隔重新训练模型。我使用模型检查站来保存每列火车上最好的模型 chkpt_callback = ModelCheckpoint('C:\\Users\\Administrator\\Documents\\chk.ckpt') 我这里有几个问题。模型检查点不会覆盖上一个模型检查点,而是继续创建新的检查点文件。此外,还有新的pytorch lightning模型版本,在我必须手动删除的每个循环中都会添加这些版本 此外,我以前使用Earl

我在pytorch中运行一个时间融合转换器,我需要每隔x个时间间隔重新训练模型。我使用模型检查站来保存每列火车上最好的模型

chkpt_callback = ModelCheckpoint('C:\\Users\\Administrator\\Documents\\chk.ckpt')
我这里有几个问题。模型检查点不会覆盖上一个模型检查点,而是继续创建新的检查点文件。此外,还有新的pytorch lightning模型版本,在我必须手动删除的每个循环中都会添加这些版本

此外,我以前使用EarlyStoping功能训练过的模型占用了存储空间,我无法找到它们


是否有人在不留下存储空间的情况下使用培训师成功构建了pytorch模型?

最好在pytorch Lightning的GitHub问题中询问这一点。您可能会直接从开发人员那里得到更快的响应。