Tensorflow 使用LearningRateSchedule时要适应的多个调用

Tensorflow 使用LearningRateSchedule时要适应的多个调用,tensorflow,tf.keras,Tensorflow,Tf.keras,如果我使用优化器使用LearningRateSchedule对Keras模型进行“编译”,并多次运行model.fit()一个历元,它会每次重新启动学习速率调度器还是保持其状态 model=create\u keras\u model() lr_调度程序=创建lr_调度程序() 优化器=Adam(学习率=lr调度程序) 对于范围内的i(10) model.fit(数据集,epochs=1) 谢谢。为什么不在for循环中创建lr\u调度程序=创建lr\u调度程序()?你能分享你的调度程序代码吗?

如果我使用优化器使用
LearningRateSchedule
对Keras模型进行“编译”,并多次运行
model.fit()
一个历元,它会每次重新启动学习速率调度器还是保持其状态

model=create\u keras\u model()
lr_调度程序=创建lr_调度程序()
优化器=Adam(学习率=lr调度程序)
对于范围内的i(10)
model.fit(数据集,epochs=1)

谢谢。

为什么不在for循环中创建lr\u调度程序=创建lr\u调度程序()?你能分享你的调度程序代码吗?如果您的计划程序位于def lr_schedule(epoch)的from中,则您可以基于epoch重置它。该计划程序只是
分段常量的一个实例。我在ray tune库的
Trainable
界面上使用它,为了超参数优化,使用BOHB我需要在每个历元后序列化训练状态,我发现最简单的方法是使用
模型。编译
然后
模型。保存
,然后在每次迭代中使用
模型。拟合
,这就是导致这个问题的原因。我试着在每次迭代中创建一个新的优化程序,但是光线调节函数的方式并不能与这种方式配合使用。。。PS:我不熟悉ray tune。为什么不在for循环中创建lr_调度程序=create_lr_调度程序()?你能分享你的调度程序代码吗?如果您的计划程序位于def lr_schedule(epoch)的from中,则您可以基于epoch重置它。该计划程序只是
分段常量的一个实例。我在ray tune库的
Trainable
界面上使用它,为了超参数优化,使用BOHB我需要在每个历元后序列化训练状态,我发现最简单的方法是使用
模型。编译
然后
模型。保存
,然后在每次迭代中使用
模型。拟合
,这就是导致这个问题的原因。我试着在每次迭代中创建一个新的优化程序,但是光线调节函数的方式并不能与这种方式配合使用。。。附言:我是雷·图恩的新手。