Python tf.train.Checkpoint和tf.train.Saver之间的差异
我发现在Python tf.train.Checkpoint和tf.train.Saver之间的差异,python,tensorflow,deep-learning,eager-execution,Python,Tensorflow,Deep Learning,Eager Execution,我发现在Tensorflow中有不同的方法来保存/恢复模型和变量。这些方法包括: 在tensorflow的文档中,我发现了它们之间的一些差异: tf.saved\u model是tf.train.Saver tf.train.Checkpoint支持即时执行,但tf.train.Saver不支持 tf.train.Checkpoint不创建.meta文件,但仍然可以加载图形结构(这是一个大问题!它是如何做到的?) tf.train.Checkpoint如何在没有.meta文件的情况下加
Tensorflow
中有不同的方法来保存/恢复模型和变量。这些方法包括:
tf.saved\u model
是tf.train.Saver
tf.train.Checkpoint
支持即时执行,但tf.train.Saver
不支持tf.train.Checkpoint
不创建.meta
文件,但仍然可以加载图形结构(这是一个大问题!它是如何做到的?)tf.train.Checkpoint
如何在没有.meta
文件的情况下加载图形?或者更一般地说,tf.train.Saver
和tf.train.Checkpoint
?根据Tensorflow:
Checkpoint.save
和Checkpoint.restore
基于对象的写入和读取
检查点,与写和读的tf.train.Saver相比
基于variable.name的检查点。基于对象的检查点保存了
Python对象(层、优化器、,
变量等),并使用此图进行匹配
还原检查点时的变量。它可以更健壮地处理
Python程序中的更改,并有助于支持创建时恢复
在急切地执行时,用于变量首选tf.训练.检查点
over
tf.train.Saver
用于新代码