Tensorflow 2.0中的二阶导数

Tensorflow 2.0中的二阶导数,tensorflow,machine-learning,deep-learning,tensorflow2.0,derivative,Tensorflow,Machine Learning,Deep Learning,Tensorflow2.0,Derivative,我试图用TF2.3和TF.GradientTape计算一个标量变量的简单向量函数的二阶导数f(x)=(x,x^2,x^3) def f_ab(x): return x, x** 2, x** 3 import tensorflow as tf in1 = tf.cast(tf.convert_to_tensor(tf.Variable([-1,3,0,6]))[:,None],tf.float64) with tf.GradientTape(persistent=True) as ta

我试图用TF2.3和TF.GradientTape计算一个标量变量的简单向量函数的二阶导数
f(x)=(x,x^2,x^3)

def f_ab(x):
    return x, x** 2, x** 3

import tensorflow as tf
in1 = tf.cast(tf.convert_to_tensor(tf.Variable([-1,3,0,6]))[:,None],tf.float64)
with tf.GradientTape(persistent=True) as tape2:
    tape2.watch(in1)
    with tf.GradientTape(persistent=True) as tape:
        tape.watch(in1)
        f1,f2,f3 = f_ab(in1)
    df1 = tape.gradient(f1, in1)
    df2 = tape.gradient(f2, in1)
    df3 = tape.gradient(f3, in1)

d2f1_dx2 = tape2.gradient(df1, in1)
d2f2_dx2 = tape2.gradient(df2, in1)
d2f3_dx2 = tape2.gradient(df3, in1)
出于某种原因,只有最后两个导数是正确的,而第一个导数,
d2f1\u dx2
,结果是
None

当我将f_ab更改为

def f_ab(x):
    return x** 1, x** 2, x**3   
def f_ab(inputs_train):
    return tf.math.log(tf.math.exp(x) ), x** 2, x**3
我得到了
d2f1\u dx2=
这是“几乎”正确的结果

仅当我将f_ab更改为

def f_ab(x):
    return x** 1, x** 2, x**3   
def f_ab(inputs_train):
    return tf.math.log(tf.math.exp(x) ), x** 2, x**3
我得到了正确的结果:
d2f1\u dx2=


以前有人遇到过这个问题吗?为什么直截了当的方法会给出
None

我认为这是因为
x
的一阶导数是一个常数。因此,在计算二阶导数时,
Y
f1
彼此无关,因为
f1
是一个常数

在Tensorflow
.gradient()
方法中,如果两个变量之间的图形中没有可定义的路径,则默认为
None

gradient(
    target, sources, output_gradients=None,
    unconnected_gradients=tf.UnconnectedGradients.NONE
)


您可以通过
0
而不是
None
来更改此参数,您应该可以得到
常量的导数的预期结果

,这在我看来确实是一种奇怪的行为。考虑一个常数。不,常数的导数应该是zero@BennyK,我知道,不知道你指的是什么。@BennyK,我的解释仍然有效,我不明白这怎么会使我的答案无效。常数向量的导数应该是零向量,而不是零向量。我没有使用梯度,但是gradientTape@BennyK,您正在执行的是
df1=tape.gradient(f1,in1)
,因此您使用的是gradient方法。现在发生的是,如果您试图区分的两个变量之间没有联系,梯度法默认为
None
。我同意应该是
0
,但默认情况下,他们在
TF
中输入的是
None
。不,正如我在回答中所解释的,你可以改变这种行为。