Scikit learn scikit学习直线自信

Scikit learn scikit学习直线自信,scikit-learn,svm,liblinear,Scikit Learn,Svm,Liblinear,我正在使用scikit learn的LinearSVC SVM实现,并试图理解多类预测。看看coef和intercept,我可以得到超平面的权重。例如,关于我的学习问题,我得到了两个特性和四个标签 f0 = 1.99861379*x1 - 0.09489263*x2 + 0.89433196 f1 = -2.04309715*x1 - 3.51285420*x2 - 3.1206355 f2 = 0.73536996*x1 + 2.52111207*x2 - 3.04176149 f3 =

我正在使用scikit learn的LinearSVC SVM实现,并试图理解多类预测。看看coef和intercept,我可以得到超平面的权重。例如,关于我的学习问题,我得到了两个特性和四个标签

f0 =  1.99861379*x1 - 0.09489263*x2 + 0.89433196
f1 = -2.04309715*x1 - 3.51285420*x2 - 3.1206355
f2 =  0.73536996*x1 + 2.52111207*x2 - 3.04176149
f3 = -0.56607817*x1 - 0.16981337*x2 - 0.92804815
当我使用decision_函数方法时,我得到了与上述函数对应的值。但是政府说

样本的置信度得分是该样本的符号距离 采样到超平面

但decision_函数不返回有符号距离,它只返回f()

更具体地说,我假设LinearSVC使用标准技巧,即使用常量1特性来表示阈值。(这可能是错误的。)对于我的示例问题,这给出了一个三维特征空间,其中实例的形式总是(1,x1,x2)。假设没有其他阈值项,该算法学习一个超平面w=(w0,w1,w2),该超平面穿过三维空间中的原点。现在我得到一个要预测的点,称之为z=(1,a,b)。该点到超平面的有符号距离(边距)是多少。它只是点(w,z)/2norm(w)。LinearSVC代码返回点(w,z)

谢谢,
Chris

因此这些函数不应该给出距离
这是什么意思?我在问题末尾添加了一段来回答你的问题。简而言之,我认为decision|u函数方法在返回点(w,x)/| | w | | | |时返回点(w,x)。
因此这些函数不应该给出距离
这是什么意思?我在问题的末尾添加了一段来回答您的问题。简而言之,我认为decision|u函数方法在应该返回点(w,x)/| w |时返回点(w,x)。