Deep learning 变分自动编码器的异常损耗函数

Deep learning 变分自动编码器的异常损耗函数,deep-learning,loss-function,Deep Learning,Loss Function,在存储库的第158行中,他们没有使用L2丢失进行图像重建,而是扩展了最后一个解码器层,使其具有256个通道 x = self.decoder(x) B, _, H, W = x.size() x = x.view(B, 3, 256, H, W).permute(0, 1, 3, 4, 2) dist = Categorical(logits=x) 然后,使用它们的输出参数化输出像素上的分类分布,然后将它们与地面真值像素值[0255]结合到分类的基本对数概率中,以确定损失值

在存储库的第158行中,他们没有使用L2丢失进行图像重建,而是扩展了最后一个解码器层,使其具有256个通道

  x = self.decoder(x)
  B, _, H, W = x.size()
  x = x.view(B, 3, 256, H, W).permute(0, 1, 3, 4, 2)
  dist = Categorical(logits=x)
然后,使用它们的输出参数化输出像素上的分类分布,然后将它们与地面真值像素值[0255]结合到分类的基本对数概率中,以确定损失值

  dist, KL, perplexity = model(images)
  targets = (images + 0.5) * 255
  targets = targets.long()
  logp = dist.log_prob(targets).sum((1, 2, 3)).mean()
这不仅增加了模型的大小,因为最终的解码器输出层有255个通道,它也没有为我点击为什么会这样编码

有人能帮我吗