Machine learning 当存在多个正确标签时,如何训练机器学习分类模型?

Machine learning 当存在多个正确标签时,如何训练机器学习分类模型?,machine-learning,artificial-intelligence,classification,data-science,multilabel-classification,Machine Learning,Artificial Intelligence,Classification,Data Science,Multilabel Classification,我有一个简单的数据集,有20个特征和8个可能的标签。但是,对于某些记录,可能有多个正确的标签。 我想训练这个模型,使预测的标签成为可能的标签之一。实现这一目标的好方法是什么 例:考虑以下记录: [color: grey; legs:2; wings:2; mass: 120g;....] 一些记录被标记为“麻雀”,而很少有其他记录被命名为“鸟”。在测试期间,我不在乎这些标签中的哪一个被分配给记录,只要它是其中的一个。这当然取决于模型,但如果你使用的是交叉熵损失的神经网络,这是完全可能的。在通常

我有一个简单的数据集,有20个特征和8个可能的标签。但是,对于某些记录,可能有多个正确的标签。 我想训练这个模型,使预测的标签成为可能的标签之一。实现这一目标的好方法是什么

例:考虑以下记录:

[color: grey; legs:2; wings:2; mass: 120g;....]

一些记录被标记为“麻雀”,而很少有其他记录被命名为“鸟”。在测试期间,我不在乎这些标签中的哪一个被分配给记录,只要它是其中的一个。

这当然取决于模型,但如果你使用的是交叉熵损失的神经网络,这是完全可能的。在通常情况下,标签是一个单热向量
[0,…,0,1,0,….0]
。它的概率解释是目标类为
i
,概率
1.0
(所有其他类为
0.0

没有什么可以阻止您定义标签
[0,…,0,0.5,0,…,0,0.5,0,….0]
:正确的类是
i
概率
0.5
j
概率
0.5
。因此,模型了解到,对于给定的输入,这两个标签都是正确的。训练模型后,您甚至可以输出两个或更多类,例如概率高于
阈值的所有类。或者您可以始终选择最大可能类,在这种情况下,可以选择任何一个类


请注意,这种技巧(称为软类)仅适用于概率模型,并非所有机器学习算法都是概率的。因此,模型的选择在这里很重要。

我确实在使用交叉熵损失的神经网络。你的回答很有帮助。我将尝试你推荐的方法。