Python 通过张量流空间反向传播
我有一个tensorflow变量定义为Python 通过张量流空间反向传播,python,tensorflow,machine-learning,backpropagation,Python,Tensorflow,Machine Learning,Backpropagation,我有一个tensorflow变量定义为 tf_y_min = tf.reduce_min(tf_f) tf_y_max = tf.reduce_max(tf_f) tf_ydelta = (tf_y_max-tf_y_min)/(Ny-1) tf_y_linspace = tf.linspace(tf_y_min,tf_y_max,Ny) 其中tf\u f是神经网络的输出。但是,我无法计算神经网络权重的梯度 tf.gradients(tf_y_linspace,
tf_y_min = tf.reduce_min(tf_f)
tf_y_max = tf.reduce_max(tf_f)
tf_ydelta = (tf_y_max-tf_y_min)/(Ny-1)
tf_y_linspace = tf.linspace(tf_y_min,tf_y_max,Ny)
其中tf\u f
是神经网络的输出。但是,我无法计算神经网络权重的梯度
tf.gradients(tf_y_linspace,tf_weights)
我得到错误,Fetch参数无无效类型
我该如何解决这个问题?这到底是什么意思?你期望得到什么结果?这种梯度应该如何解释?当你移动
y_min
和y_max
时,linspace的所有元素都会相应地移动(因为每个元素的间隔都是相等的'ydelta'`