Tensorflow 张量流中梯度下降的目标函数

Tensorflow 张量流中梯度下降的目标函数,tensorflow,neural-network,gradient-descent,Tensorflow,Neural Network,Gradient Descent,当使用神经网络构造分类器时,我使用了GD,但似乎我没有很好地理解它。关于梯度下降,目标函数的两个实现有什么不同,其中D是一个分类器,而X标记为1,Y标记为0 例1: n_true = classifier(X) n_false = classifier(Y) loss = 0.5 * (tf.reduce_mean((n_true - 1)**2) + tf.reduce_mean(n_false**2)) solver = (tf.train.AdamOptimizer(learning_r

当使用神经网络构造分类器时,我使用了GD,但似乎我没有很好地理解它。关于梯度下降,目标函数的两个实现有什么不同,其中D是一个分类器,而X标记为1,Y标记为0

例1:

n_true = classifier(X) 
n_false = classifier(Y)
loss = 0.5 * (tf.reduce_mean((n_true - 1)**2) + tf.reduce_mean(n_false**2))
solver = (tf.train.AdamOptimizer(learning_rate=lr).minimize(loss))
例2:

results  = tf.concat([n_true, n_false], 0)
lables = np.transpose(np.hstack((np.ones(size),np.zeros(size))))
loss = 0.5 * (tf.reduce_mean(results-lables)**2)
solver = (tf.train.AdamOptimizer(learning_rate=lr).minimize(loss))