Tensorflow 张量流中的累积梯度

Tensorflow 张量流中的累积梯度,tensorflow,backpropagation,gradient,Tensorflow,Backpropagation,Gradient,在执行反向传播之前,我试图在tensorflow中积累不同批次的梯度。比如说,我有10批10个样本,每个样本都输入到我的神经网络中。对于每个批次,我希望获得梯度并将其相加,然后使用相加的梯度执行反向传播 有人知道一个简单的方法吗?到目前为止,我正在得到梯度,并从外部对其进行总结,但我认为这不是最好的方法 您始终可以将批次的梯度添加到变量中,然后在应用更新时使用这些变量的值作为梯度。您是否正在查找tf.test.compute\u gradient?你在这里的应用是什么?我用它来做强化学习算法。背

在执行反向传播之前,我试图在tensorflow中积累不同批次的梯度。比如说,我有10批10个样本,每个样本都输入到我的神经网络中。对于每个批次,我希望获得梯度并将其相加,然后使用相加的梯度执行反向传播


有人知道一个简单的方法吗?到目前为止,我正在得到梯度,并从外部对其进行总结,但我认为这不是最好的方法

您始终可以将批次的梯度添加到变量中,然后在应用更新时使用这些变量的值作为梯度。

您是否正在查找
tf.test.compute\u gradient
?你在这里的应用是什么?我用它来做强化学习算法。背后的想法是使用rmsprop缩放来累积不同批次的数据,并在backprop之前累积梯度。