Python 二进制日志损失是否排除了基于y的等式的一部分?

Python 二进制日志损失是否排除了基于y的等式的一部分?,python,machine-learning,logistic-regression,sklearn-pandas,cross-entropy,Python,Machine Learning,Logistic Regression,Sklearn Pandas,Cross Entropy,假设对数损耗方程为: 对数损失=−1/N*∑_{i=1}^N yilogpi+1−yilog1−圆周率 其中N是样本数,yi…yiN是因变量的实际值,pi…piN是逻辑回归的预测可能性 我是如何看待它的: 如果yi=0,则第一部分yilogpi=0 或者,如果yi=1,则第二部分为1−yilog1−pi=0 现在,根据y的值,方程的一部分被排除。我理解正确吗 我的最终目标是了解如何解释日志丢失的结果。是的,您走的是正确的道路。请记住,p_i=Py_i=1,基本上,其思想是损失函数的定义方式需要使

假设对数损耗方程为:

对数损失=−1/N*∑_{i=1}^N yilogpi+1−yilog1−圆周率

其中N是样本数,yi…yiN是因变量的实际值,pi…piN是逻辑回归的预测可能性

我是如何看待它的:

如果yi=0,则第一部分yilogpi=0

或者,如果yi=1,则第二部分为1−yilog1−pi=0

现在,根据y的值,方程的一部分被排除。我理解正确吗


我的最终目标是了解如何解释日志丢失的结果。

是的,您走的是正确的道路。请记住,p_i=Py_i=1,基本上,其思想是损失函数的定义方式需要使其惩罚预测与实际标签不匹配的元组,例如,当y_i=1但p_i较低时,由yilogpi部分处理,或当y_i=0但p_i较高时,由1-yilog1-pi部分处理,同时它不应该对预测与实际标签匹配的元组进行太多惩罚,例如,当y_i=1和p_i较高时,或者当y_i=0和p_i较低时

逻辑回归交叉熵的损失函数正好解决了损失函数的上述期望特性,如下图所示


非常感谢。它不像简单的准确度分数那样直观。但我知道如何根据p_I惩罚不准确