Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/277.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Tensorflow 1.12中的定制培训_Python_Tensorflow - Fatal编程技术网

Python Tensorflow 1.12中的定制培训

Python Tensorflow 1.12中的定制培训,python,tensorflow,Python,Tensorflow,我正在尝试使用自定义训练方法训练模型。我已成功运行/执行以下操作: 制作模型 正在为循环获取中的数据 初始化Adam优化器 获得损失值 然后问题开始了。在TF的最新版本中,我们使用了apply_gradient方法,让优化器应用从损失值生成的梯度。但在TF1.12中并非如此,没有这样的函数 现在我不知道如何将损失函数的梯度应用于优化器。能否显示初始化优化器的代码?我现在将更新问题。事实上,我发现TF1.12从来没有Adam.apply_梯度法。(请参阅)能否显示初始化优化器的代码?我现在将更新问

我正在尝试使用自定义训练方法训练模型。我已成功运行/执行以下操作:

  • 制作模型
  • 正在为循环获取
    中的数据
  • 初始化
    Adam
    优化器
  • 获得损失值
  • 然后问题开始了。在TF的最新版本中,我们使用了
    apply_gradient
    方法,让优化器应用从损失值生成的梯度。但在TF1.12中并非如此,没有这样的函数


    现在我不知道如何将损失函数的梯度应用于优化器。

    能否显示初始化优化器的代码?我现在将更新问题。事实上,我发现TF1.12从来没有Adam.apply_梯度法。(请参阅)能否显示初始化优化器的代码?我现在将更新问题。事实上,我发现TF1.12从来没有Adam.apply_梯度法。(见附件)