Machine learning 为什么向线性回归添加特征会降低精度?

Machine learning 为什么向线性回归添加特征会降低精度?,machine-learning,linear-regression,kaggle,Machine Learning,Linear Regression,Kaggle,我是ML的新手,正在参加一个kaggle比赛来学习一些东西。当我向数据集中添加某些特征时,准确性会降低 为什么增加成本的功能没有加权为零(忽略)?是否因为非线性特征会导致局部最小解 谢谢。如果您正在谈论线性回归分类器的训练错误,那么添加功能将始终减少错误,除非您有错误。就像你说的,这是一个凸问题,全局解永远不会更糟,因为你可以将权重设置为零 但是,如果您谈论的是测试错误,那么过度拟合将是添加特性的一个大问题,并且您肯定会注意到这一点 如果您谈论的是线性回归分类器的训练错误,那么添加特性总是会减少

我是ML的新手,正在参加一个kaggle比赛来学习一些东西。当我向数据集中添加某些特征时,准确性会降低

为什么增加成本的功能没有加权为零(忽略)?是否因为非线性特征会导致局部最小解


谢谢。

如果您正在谈论线性回归分类器的训练错误,那么添加功能将始终减少错误,除非您有错误。就像你说的,这是一个凸问题,全局解永远不会更糟,因为你可以将权重设置为零


但是,如果您谈论的是测试错误,那么过度拟合将是添加特性的一个大问题,并且您肯定会注意到这一点

如果您谈论的是线性回归分类器的训练错误,那么添加特性总是会减少错误,除非您有bug。就像你说的,这是一个凸问题,全局解永远不会更糟,因为你可以将权重设置为零


但是,如果您谈论的是测试错误,那么过度拟合将是添加特性的一个大问题,并且您肯定会注意到这一点

我无法发表评论,因此将其作为答案发布


@阿吉尔福尔:你不一定错。如果根据预测输出和实际输出之间的相关性来测量精度,则随着添加更多特征,精度可能会降低。线性回归并不能保证这一点。

我不能发表评论,因此作为答案发布


@阿吉尔福尔:你不一定错。如果根据预测输出和实际输出之间的相关性来测量精度,则随着添加更多特征,精度可能会降低。线性回归不能保证这一点。

谢谢,我一定有一个bug,因为它是训练集谢谢,我一定有一个bug,因为它是训练集