Python 3.x Adam优化器在迁移自定义模型中不工作

Python 3.x Adam优化器在迁移自定义模型中不工作,python-3.x,tensorflow,tensorflow2.0,recurrent-neural-network,Python 3.x,Tensorflow,Tensorflow2.0,Recurrent Neural Network,我正在执行从TensorFlow 1.x到TensorFlow 2.x的自定义模型迁移,因此自定义模型(类模型)的一部分被包装在一个用tf.function修饰的函数中,所以在使用session.run和feed_dict之前,我使用的是一个用tf.function修饰的函数,问题是精度很低,损失很大,所以我在修饰函数中用tf.function(def new_函数)实现了Adam optimizer,但它在非首次调用时显示了创建变量的错误,但是,当我在forecast函数(def foreca

我正在执行从TensorFlow 1.x到TensorFlow 2.x的自定义模型迁移,因此自定义模型(类模型)的一部分被包装在一个用tf.function修饰的函数中,所以在使用session.run和feed_dict之前,我使用的是一个用tf.function修饰的函数,问题是精度很低,损失很大,所以我在修饰函数中用tf.function(def new_函数)实现了Adam optimizer,但它在非首次调用时显示了创建变量的错误,但是,当我在forecast函数(def forecast)中声明Adam optimizer时,它会运行,我在其中调用模型进行预测,但是它不会影响应该增加的精度,并且损失应该最小化,它只是保持不变,不使用adam优化器,但速度较慢。少了什么吗?或者语法应该如何写在代码中,应该放在哪里

注意:Adam是在def forecast中用3行带注释的代码实现的,请参见有Adam与没有Adam时的速度差异,以及为什么精度没有提高,损失仍然很大

这是colab推送的文件

我们需要帮助解决这个问题