Machine learning 为什么岭回归中的偏差项没有正则化?

Machine learning 为什么岭回归中的偏差项没有正则化?,machine-learning,classification,Machine Learning,Classification,在大多数分类(如逻辑/线性回归)中,在正则化时忽略偏差项。如果我们不规范偏差项,我们会得到更好的分类吗?示例: Y = aX + b 正则化基于这样一种思想,即Y上的过度拟合是由a过于“特定”造成的,可以说,这通常通过a元素的大值来体现 b只是抵消了关系及其规模,因此对这个问题来说就不那么重要了。此外,如果出于任何原因需要较大的偏移量,将其正则化将阻止找到正确的关系 所以答案就在于:在Y=aX+b中,a乘以解释变量/自变量,b被添加到其中。为什么称X为“解释变量”?有参考资料吗?谢谢,泰勒提督

在大多数分类(如逻辑/线性回归)中,在正则化时忽略偏差项。如果我们不规范偏差项,我们会得到更好的分类吗?

示例:

Y = aX + b
正则化基于这样一种思想,即
Y
上的过度拟合是由
a
过于“特定”造成的,可以说,这通常通过
a
元素的大值来体现

b
只是抵消了关系及其规模,因此对这个问题来说就不那么重要了。此外,如果出于任何原因需要较大的偏移量,将其正则化将阻止找到正确的关系


所以答案就在于:在
Y=aX+b
中,
a
乘以解释变量/自变量,
b
被添加到其中。

为什么称
X
为“解释变量”?有参考资料吗?谢谢,泰勒提督九门步军巡捕五营统领, 更常见的是,
X
被称为@Def_Os,不,在这个术语中,
X
是自变量,
Y
是从属变量(
Y
取决于
X
)。在回答@Tyler的问题时,链接文章提到“解释变量”是自变量的同义词。