在keras或tensorflow中的adamOptimizer中找不到apply_渐变

在keras或tensorflow中的adamOptimizer中找不到apply_渐变,tensorflow,optimization,keras,gradient-descent,Tensorflow,Optimization,Keras,Gradient Descent,在tensorflow或keras中的optimizer的未来版本中可能已删除apply_渐变。不知道为什么,但我得到了这个: AttributeError:“Adam”对象没有属性“apply_gradients” 还有其他方法可以实现同样的效果吗?应用梯度只有在tensorflow.keras中才可能实现,因为您可以在启用“急切执行”的情况下进行手动训练循环 纯keras必须使用符号图,并且只能应用带有fit或train_on_batch的渐变。apply_渐变只有在tensorflow.k

在tensorflow或keras中的optimizer的未来版本中可能已删除apply_渐变。不知道为什么,但我得到了这个:

AttributeError:“Adam”对象没有属性“apply_gradients”

还有其他方法可以实现同样的效果吗?

应用梯度只有在tensorflow.keras中才可能实现,因为您可以在启用“急切执行”的情况下进行手动训练循环

纯keras必须使用符号图,并且只能应用带有fit或train_on_batch的渐变。

apply_渐变只有在tensorflow.keras中才有可能,因为您可以在tensorflow.keras上进行手动训练循环,并立即执行


纯keras必须使用符号图,并且只能在批处理中应用fit或train的梯度。

我也有同样的问题。最后,这个初始值设定项起了作用:

optimizer = tf.keras.optimizers.Adam()
但这些都导致了错误:

optimizer = keras.optimizers.Adam()
optimizer = tf.python.keras.optimizers.Adam() 

我也有同样的问题。最后,这个初始值设定项起了作用:

optimizer = tf.keras.optimizers.Adam()
但这些都导致了错误:

optimizer = keras.optimizers.Adam()
optimizer = tf.python.keras.optimizers.Adam() 

您使用的是正确的keras版本吗?这只适用于tensorflow.keras。好的,让我检查一下,我使用的是keras而不是tensorflow.keras,谢谢你使用的是正确的keras版本吗?这只适用于tensorflow.keras.好的,让我确认一下,我使用的是keras one而不是tensorflow.keras,谢谢