Python Tensorflow训练,如何防止训练节点删除
我将Tensorflow与python一起用于对象检测 我想开始培训,并将其保留一段时间,保留所有培训节点(模型cpk)。标准的Tensorflow训练似乎删除节点,只保留最后几个节点。我如何防止这种情况Python Tensorflow训练,如何防止训练节点删除,python,tensorflow,machine-learning,Python,Tensorflow,Machine Learning,我将Tensorflow与python一起用于对象检测 我想开始培训,并将其保留一段时间,保留所有培训节点(模型cpk)。标准的Tensorflow训练似乎删除节点,只保留最后几个节点。我如何防止这种情况 如果在这里问这样的问题是错误的,请原谅。如果有人告诉我一个合适的地方,我会很感激的。谢谢。您可以在model\u main.py中使用keep\u checkpoint\u max标志来tf.estimator.RunConfig。 您可以将其设置为非常大的数字,以实际保存所有检查点。 不过,
如果在这里问这样的问题是错误的,请原谅。如果有人告诉我一个合适的地方,我会很感激的。谢谢。您可以在
model\u main.py
中使用keep\u checkpoint\u max
标志来tf.estimator.RunConfig
。
您可以将其设置为非常大的数字,以实际保存所有检查点。
不过,应该提醒您,根据型号大小和保存频率,它可能会填满您的磁盘(因此在培训期间会崩溃)。
您可以通过
RunConfig
的标志save\u checkpoints\u steps
或save\u checkpoints\u secs
更改保存频率。默认值是使用默认值600(10分钟)。您可以将模型检查点另存为。当需要预测测试数据时,将再次加载hdf5文件。
希望能有所帮助。在旧的
遗留/train.py中是否有这样做的方法model_main.py
产生的问题超出了我的处理能力。我自己还没有尝试过,但我相信您可以使用tf.train.Saver的max\u来保持
标记。默认值为5,通过将其设置为0或无,可以保留所有检查点。