Python TensorFlow中的默认tf.gradients-总导数还是偏导数?
所以我正在阅读文档()中关于tf.gradients()的内容,我有点困惑 我见过有人说tf.gradients()的结果是 ys w.r.t.x与xs之和的符号偏导数 这也是我首先想到的。但是文档中描述了此函数的一个可选参数,如下所示: stop_梯度是一个张量或张量列表,对于所有X都被视为常数。这些张量不会反向传播,就好像它们已经使用stop_梯度显式断开。除其他外,这允许计算偏导数,而不是总导数 那么,只有当我使用“stop_gradient”时,才能计算偏导数,否则,len(xs)向量中返回的默认值是总导数吗?也许这只是我的误解,如果有人能详细解释一下,我将不胜感激Python TensorFlow中的默认tf.gradients-总导数还是偏导数?,python,tensorflow,gradient,Python,Tensorflow,Gradient,所以我正在阅读文档()中关于tf.gradients()的内容,我有点困惑 我见过有人说tf.gradients()的结果是 ys w.r.t.x与xs之和的符号偏导数 这也是我首先想到的。但是文档中描述了此函数的一个可选参数,如下所示: stop_梯度是一个张量或张量列表,对于所有X都被视为常数。这些张量不会反向传播,就好像它们已经使用stop_梯度显式断开。除其他外,这允许计算偏导数,而不是总导数 那么,只有当我使用“stop_gradient”时,才能计算偏导数,否则,len(xs)向量中
非常感谢 根据功能文档 。。。它返回长度为len(xs)的张量列表,其中每个张量是y在ys中的和(dy/dx) 这正是你在第一部分所说的,每个输出张量是y的总导数w.r.t的和,对应的x
文件建议使用
stop_梯度
参数来计算偏导数,即为该参数提供的张量在微分中被视为常数 根据功能文档
。。。它返回长度为len(xs)的张量列表,其中每个张量是y在ys中的和(dy/dx)
这正是你在第一部分所说的,每个输出张量是y的总导数w.r.t的和,对应的x
文件建议使用stop_梯度
参数来计算偏导数,即为该参数提供的张量在微分中被视为常数