Machine learning 如何计算像素级预测的交叉熵

Machine learning 如何计算像素级预测的交叉熵,machine-learning,artificial-intelligence,cross-entropy,Machine Learning,Artificial Intelligence,Cross Entropy,我正在Keras中运行一个FCN,它使用作为损失函数。然而,我不知道损失是如何累积的 我知道损失是在像素级应用的,但是,图像中每个像素的损失是不是加起来形成了一个单独的图像损失?或者不是求和,而是求平均 此外,每个图像的丢失是简单的汇总还是在批处理过程中的其他操作?我假设您的问题是一般性的,如果不是特定于特定的模型,您能否共享您的模型 如果在像素级使用交叉熵,则必须对所有像素的结果进行减少求和或平均,以获得单个值,这是正确的 以下是tensorflow中卷积自动编码器的示例,其中该步骤是特定的:

我正在Keras中运行一个FCN,它使用作为损失函数。然而,我不知道损失是如何累积的

我知道损失是在像素级应用的,但是,图像中每个像素的损失是不是加起来形成了一个单独的图像损失?或者不是求和,而是求平均


此外,每个图像的丢失是简单的汇总还是在批处理过程中的其他操作?

我假设您的问题是一般性的,如果不是特定于特定的模型,您能否共享您的模型

如果在像素级使用交叉熵,则必须对所有像素的结果进行减少求和或平均,以获得单个值,这是正确的

以下是tensorflow中卷积自动编码器的示例,其中该步骤是特定的:

相关线路为:

loss = tf.nn.sigmoid_cross_entropy_with_logits(labels=targets_, logits=logits)
cost = tf.reduce_mean(loss)

不管你是取成本函数的平均值还是求和值,都不会改变最小值的值。但是如果你取平均值,那么当你改变批量大小或图像大小时,成本函数的值在实验之间更容易比较。

这只是一个一般的值,与特定的模型无关。但具体到kerasSo,我的问题是,它是在kerasIn Keras中求和还是求平均,成本函数是求和的:那么这是否意味着模型不会考虑个人图像损失?考虑下面的场景,每个像素添加所有像素损失,然后对该批中的所有图像求出每个图像的损失。如果我有16个image256×256批大小,那么一次迭代的损失将是16x256x256个损失计算的总和,并且损失将永远不会考虑单个图像,除非批大小为1。我理解的对吗?如果我理解你的问题,那么批量大小的总损失基本上就是批量大小中每个图像的损失之和。