Neural network 所有等级的Softmax损失和处罚

Neural network 所有等级的Softmax损失和处罚,neural-network,logistic-regression,loss-function,softmax,cross-entropy,Neural Network,Logistic Regression,Loss Function,Softmax,Cross Entropy,在多类别分类中使用softmax损失(分类交叉熵),损失函数仅计算每个样本有效类别的误差。为其他类别的神经元添加一个损失项难道没有意义吗 示例:类别:[A、B、C] 样本1(输入/标签):X1-->A 对于样本1,Loss=-log(y^),其中y^是生成A类神经元的输出。但生成B类和C类神经元的输出不进入损耗方程 数值示例:类[A、B、C]的样本1的Softmax输出:[0.8、0.15、0.05] 损失=-log(0.8)。难道我们不应该将log(0.15)和log(0.05)添加到损失中,

在多类别分类中使用softmax损失(分类交叉熵),损失函数仅计算每个样本有效类别的误差。为其他类别的神经元添加一个损失项难道没有意义吗

示例:类别:[A、B、C]

样本1(输入/标签):X1-->A

对于样本1,Loss=-log(y^),其中y^是生成A类神经元的输出。但生成B类和C类神经元的输出不进入损耗方程

数值示例:类[A、B、C]的样本1的Softmax输出:[0.8、0.15、0.05]

损失=-log(0.8)。难道我们不应该将log(0.15)和log(0.05)添加到损失中,因为我们希望它们尽可能小吗?或者可能是log(1-0.15)和log(1-0.05)

这种损失函数是否已经存在