Machine learning 为什么岭回归中的偏差项没有正则化?
在大多数分类(如逻辑/线性回归)中,在正则化时忽略偏差项。如果我们不规范偏差项,我们会得到更好的分类吗?示例:Machine learning 为什么岭回归中的偏差项没有正则化?,machine-learning,classification,Machine Learning,Classification,在大多数分类(如逻辑/线性回归)中,在正则化时忽略偏差项。如果我们不规范偏差项,我们会得到更好的分类吗?示例: Y = aX + b 正则化基于这样一种思想,即Y上的过度拟合是由a过于“特定”造成的,可以说,这通常通过a元素的大值来体现 b只是抵消了关系及其规模,因此对这个问题来说就不那么重要了。此外,如果出于任何原因需要较大的偏移量,将其正则化将阻止找到正确的关系 所以答案就在于:在Y=aX+b中,a乘以解释变量/自变量,b被添加到其中。为什么称X为“解释变量”?有参考资料吗?谢谢,泰勒提督
Y = aX + b
正则化基于这样一种思想,即Y
上的过度拟合是由a
过于“特定”造成的,可以说,这通常通过a
元素的大值来体现
b
只是抵消了关系及其规模,因此对这个问题来说就不那么重要了。此外,如果出于任何原因需要较大的偏移量,将其正则化将阻止找到正确的关系
所以答案就在于:在
Y=aX+b
中,a
乘以解释变量/自变量,b
被添加到其中。为什么称X
为“解释变量”?有参考资料吗?谢谢,泰勒提督九门步军巡捕五营统领, 更常见的是,X
被称为@Def_Os,不,在这个术语中,X
是自变量,Y
是从属变量(Y
取决于X
)。在回答@Tyler的问题时,链接文章提到“解释变量”是自变量的同义词。