Tensorflow 使用ADAM optimizer时是否真的需要调整/优化学习速率?

Tensorflow 使用ADAM optimizer时是否真的需要调整/优化学习速率?,tensorflow,deep-learning,tensorflow2.0,Tensorflow,Deep Learning,Tensorflow2.0,在tensorflow/keras中使用ADAM作为优化器时,是否真的需要优化初始学习率?如何做到这一点(在tensorflow 2.x中)?确实如此。与任何其他方法一样,应该寻找最佳学习率。如果学习率太大或太小,即使使用ADAM这样的优化器,您的模型也可能无法学习,因为ADAM在衰减等方面有很好的特性 本文中可以看到ADAM optimizer下模型相对于学习率的行为示例 寻找正确的超参数称为超参数调整。我在我的项目中没有使用TF2.*所以我会参考TensorFlow本身提供的功能

在tensorflow/keras中使用ADAM作为优化器时,是否真的需要优化初始学习率?如何做到这一点(在tensorflow 2.x中)?

确实如此。与任何其他方法一样,应该寻找最佳学习率。如果学习率太大或太小,即使使用ADAM这样的优化器,您的模型也可能无法学习,因为ADAM在衰减等方面有很好的特性

本文中可以看到ADAM optimizer下模型相对于学习率的行为示例

寻找正确的超参数称为超参数调整。我在我的项目中没有使用TF2.*所以我会参考TensorFlow本身提供的功能