Deep learning 图变分自动编码器中二进制交叉熵的权重问题

Deep learning 图变分自动编码器中二进制交叉熵的权重问题,deep-learning,Deep Learning,我无法理解纸张变分图自动编码器的实现中使用的以下权重设置,请参见以下代码块中的权重设置(官方实现中的第77-78行:) 这两个权重用于计算重建成本,如下所示: self.cost = norm * tf.reduce_mean(tf.nn.weighted_cross_entropy_with_logits(logits=preds_sub, targets=labels_sub, pos_weight=pos_weight)) 如前所述,pos_-weight用于二进制交叉熵,作为缓解正负边

我无法理解纸张变分图自动编码器的实现中使用的以下权重设置,请参见以下代码块中的权重设置(官方实现中的第77-78行:)

这两个权重用于计算重建成本,如下所示:

self.cost = norm * tf.reduce_mean(tf.nn.weighted_cross_entropy_with_logits(logits=preds_sub, targets=labels_sub, pos_weight=pos_weight))
如前所述,
pos_-weight
用于二进制交叉熵,作为缓解正负边之间不平衡问题的一种方法,但是使用
norm
的目的是什么

self.cost = norm * tf.reduce_mean(tf.nn.weighted_cross_entropy_with_logits(logits=preds_sub, targets=labels_sub, pos_weight=pos_weight))