Python 用于最小化两个预测之间误差的Tensorflow代码

Python 用于最小化两个预测之间误差的Tensorflow代码,python,tensorflow,tensor,Python,Tensorflow,Tensor,我刚开始学习tensorflow,下面的代码来自一个课堂示例: hiddenBiasUpdate = self.hiddenBias.assign_add(self.learningRate * tf.reduce_mean(hProb0 - hProb1, 0)) 该代码的解释是“第93行更新隐藏偏差项,试图将原始数据和重建数据的隐藏节点输出之间的误差降至最低。” 我真的不明白代码是如何实现所描述的功能的 以下是hProb0和hProb1的定义,我将其理解为对隐藏层的预测 hProb0 =

我刚开始学习tensorflow,下面的代码来自一个课堂示例:

 hiddenBiasUpdate = self.hiddenBias.assign_add(self.learningRate * tf.reduce_mean(hProb0 - hProb1, 0))
该代码的解释是“第93行更新隐藏偏差项,试图将原始数据和重建数据的隐藏节点输出之间的误差降至最低。”

我真的不明白代码是如何实现所描述的功能的

以下是hProb0和hProb1的定义,我将其理解为对隐藏层的预测

hProb0 = tf.nn.sigmoid(tf.matmul(self.X, self.weights) + self.hiddenBias)
hProb1 = tf.nn.sigmoid(tf.matmul(vProb, self.weights) + self.hiddenBias)