Tensorflow 张量流,反时间衰变中的t是什么?

Tensorflow 张量流,反时间衰变中的t是什么?,tensorflow,Tensorflow,我想用,公式是 decayed_learning_rate = learning_rate / (1 + decay_rate * t) 这里有一个例子 ... global_step = tf.Variable(0, trainable=False) learning_rate = 0.1 k = 0.5 learning_rate = tf.train.inverse_time_decay(learning_rate, global_step, k) # Passing global_s

我想用,公式是

decayed_learning_rate = learning_rate / (1 + decay_rate * t)
这里有一个例子

...
global_step = tf.Variable(0, trainable=False)
learning_rate = 0.1
k = 0.5
learning_rate = tf.train.inverse_time_decay(learning_rate, global_step, k)

# Passing global_step to minimize() will increment it at each step.
learning_step = (
    tf.train.GradientDescentOptimizer(learning_rate)
    .minimize(...my loss..., global_step=global_step)
)

在上面的例子中,
k
衰减率
,但是如何设置
t
?是否
t
全局步骤

t将是全局步骤。全局步长是一个变量,在每个训练步骤完成后递增1。如果你想要某种其他的t,你可以把任何你喜欢的张量作为“全局步”传递。

t将是全局步。全局步长是一个变量,在每个训练步骤完成后递增1。如果你想要其他类型的t,你可以传递任何你喜欢的张量作为“全局步”