Python 机器学习-多标签分类支持向量机

Python 机器学习-多标签分类支持向量机,python,machine-learning,classification,svm,Python,Machine Learning,Classification,Svm,我在Python的多类分类中使用SVM时遇到问题。 事实上,问题在于性别分类(来自图像),其中训练数据集只包含“y=1”或“y=-1”作为类标签(二进制)。但是,在预测中,如果它是男性,我必须预测“1”;如果它是女性,我必须预测“-1”;如果分类器不知道,我必须预测“0”。我不知道如何添加这个“0”类。我应该用什么?决策函数 PS:分数是这样计算的:达到预期结果的最佳方法是使用概率。如果使用Scikit-learn可以将参数probability=True添加到构造函数中。这样,您可以得到介于[

我在Python的多类分类中使用SVM时遇到问题。 事实上,问题在于性别分类(来自图像),其中训练数据集只包含“y=1y=-1”作为类标签(二进制)。但是,在预测中,如果它是男性,我必须预测“1”;如果它是女性,我必须预测“-1”;如果分类器不知道,我必须预测“0”。我不知道如何添加这个“0”类。我应该用什么?决策函数


PS:分数是这样计算的:

达到预期结果的最佳方法是使用概率。如果使用
Scikit-learn
可以将参数
probability=True
添加到构造函数中。这样,您可以得到介于
[0,1]
之间的值。
另一种方法是使用
decision\u函数
,该函数提供到超平面的距离。对于支持向量,这应该是
-1
1
。如果为“保存分类”,则绝对值大于
1
。选择0的位置由您决定。

您能提供您已有的代码吗?最好是与包含5个实例的最小数据集或soIt一起使用。这是一个有趣的问题,可能超出stackoverflow的范围,而不是“技术”问题。也许更好。例如,你必须决定“0”决定的惩罚,否则每个人都可以预测一切为0。既然你有自己的自定义分数,为什么不使用神经网络,使你的“分数”成为损失函数?意味着使用决策函数,我可以预测1如果>1,-1如果<1,否则为0?是的。如果这些类是可分离的,这甚至是合理的。因为这意味着[-1,1]中的例子比以前看到的任何例子都更接近决策边界。