Tensorflow 当你重新组织中间层的输出时,TysFooad如何处理反向传播?

Tensorflow 当你重新组织中间层的输出时,TysFooad如何处理反向传播?,tensorflow,backpropagation,Tensorflow,Backpropagation,我有一个神经网络,它有一个隐藏层,输出一个数字a,然后我使用一个函数,它使用a生成一个向量。问题是TF在进行反向传播时能否正确处理这一问题?我确实在TF中尝试过,它可以输出一些东西,但我仍然不确定bp是否正常工作 顺便说一句,我用来从一个数字生成向量的函数是V是前一层的输出,d是我输入的值,G是常数: def generator,V: dmn=[] 对于范围内的k: d1=tf.exp-V*d--1+k*0.2\**2/2*0.2\**2 附录1 返回dmn 是的,tensorflow几乎可以通

我有一个神经网络,它有一个隐藏层,输出一个数字a,然后我使用一个函数,它使用a生成一个向量。问题是TF在进行反向传播时能否正确处理这一问题?我确实在TF中尝试过,它可以输出一些东西,但我仍然不确定bp是否正常工作

顺便说一句,我用来从一个数字生成向量的函数是V是前一层的输出,d是我输入的值,G是常数:

def generator,V: dmn=[] 对于范围内的k: d1=tf.exp-V*d--1+k*0.2\**2/2*0.2\**2 附录1 返回dmn
是的,tensorflow几乎可以通过tensorflow图中表示的任何可微变换进行反向传播,当反向传播无法发生时,您将得到一个可见的错误。

谢谢!我没有看到任何错误,所以我认为它是有效的。但是当我试图通过计算梯度得到权重时,一个错误突然出现,说我需要输入一个特定大小的张量,因为你没有正确地将张量输入到tf.placeholder。这与渐变无关。