Optimization 具有线性的特殊输出

Optimization 具有线性的特殊输出,optimization,svm,Optimization,Svm,我面临着一个关于lib线性封装的非常特殊的问题。 我有两个级别(+1,-1)。 假设我只有一个特性,它的值为$x_1$,$x_2$,…,$x_n$表示n个点。它分类很好,例如给出一些正权重$w*$和成本C。 现在,如果我将$1$叠加到上一个特征上,生成一个新的特征向量[1 x_I]I=1,2,…,n;现在,对于这个新问题,lib linear给出了以下内容: 权向量[w_1-w_2];w_i>0,即权重为1时为w_1,权重为x时为w_2。 成本C1远大于以前的成本C 我知道新功能(1)在整个过程

我面临着一个关于lib线性封装的非常特殊的问题。 我有两个级别(+1,-1)。 假设我只有一个特性,它的值为$x_1$,$x_2$,…,$x_n$表示n个点。它分类很好,例如给出一些正权重$w*$和成本C。 现在,如果我将$1$叠加到上一个特征上,生成一个新的特征向量[1 x_I]I=1,2,…,n;现在,对于这个新问题,lib linear给出了以下内容: 权向量[w_1-w_2];w_i>0,即权重为1时为w_1,权重为x时为w_2。 成本C1远大于以前的成本C

我知道新功能(1)在整个过程中没有变化,因此它的权重应该自动变为零

这是一个极小化问题,所以它应该给w_1~0,这样现在成本C1最多等于C


有人能帮忙吗?

因为您有一个恒定的输入维度,它在决策函数中的贡献也将是恒定的。LIBLINEAR的决策函数是

f(x)=sign(w^T*x-rho)
我的猜测是,您的新模型通过rho修正了额外项(由于w_1非零)。我不能说我有一个好主意,为什么w_1没有最小化到零,虽然。两个模型的预测是否相等