Tensorflow tf基于微分函数的当前梯度覆盖梯度

Tensorflow tf基于微分函数的当前梯度覆盖梯度,tensorflow,backpropagation,Tensorflow,Backpropagation,是否可以根据当前渐变更改传播回优化器的渐变? 即 我知道tf有RegisterGradient,但我没有找到一种方法来使用计算的梯度来计算自定义梯度 要更改某些操作的梯度计算方式,可以使用。要操纵优化器使用的渐变,可以调用、操纵渐变值,然后调用(而不是调用minimize)。要更改某些操作的渐变计算方式,可以使用。要操纵优化器使用的渐变,可以调用、操纵渐变值,然后调用(而不是调用最小化)。 intermediate_layer = build_intermediate(inputs) outpu

是否可以根据当前渐变更改传播回优化器的渐变?


我知道tf有
RegisterGradient
,但我没有找到一种方法来使用计算的梯度来计算自定义梯度

要更改某些操作的梯度计算方式,可以使用。要操纵优化器使用的渐变,可以调用、操纵渐变值,然后调用(而不是调用
minimize
)。要更改某些操作的渐变计算方式,可以使用。要操纵优化器使用的渐变,可以调用、操纵渐变值,然后调用(而不是调用
最小化
)。
intermediate_layer = build_intermediate(inputs)
outputs = conv2d(intermediate_layer)
#####
   ## And for all the variables inside intermediate
gradients_that_propagate_to_optimizer = true_gradients * 2