Python Scikit网格搜索参数(非超参数)

Python Scikit网格搜索参数(非超参数),python,scikit-learn,regression,minimize,grid-search,Python,Scikit Learn,Regression,Minimize,Grid Search,当我想找到最好的超参数时,Scikit是完美的。我想用同样的原理来寻找线性回归的最佳参数集,使用一个跨多个层次的目标函数。我如何在多重上优化线性回归的参数(确切地说是beta和截距) 用例(简化): 我有一个拥有三年数据的数据集。我想定义什么是最好的线性回归,是“所有年份都可以”。如果我对整个数据集拟合线性回归,我将得到一个减少所有数据的最小二乘误差的回归。有效地,我将最小化 但是,这(min(error))不是我的目标。我可以在这个目标上得到一个很好的结果,因为分类器在第1年和第2年做得很好

当我想找到最好的超参数时,Scikit是完美的。我想用同样的原理来寻找线性回归的最佳参数集,使用一个跨多个层次的目标函数。我如何在多重上优化线性回归的参数(确切地说是beta和截距)

用例(简化):
我有一个拥有三年数据的数据集。我想定义什么是最好的线性回归,是“所有年份都可以”。如果我对整个数据集拟合线性回归,我将得到一个减少所有数据的最小二乘误差的回归。有效地,我将最小化

但是,这(
min(error)
)不是我的目标。我可以在这个目标上得到一个很好的结果,因为分类器在第1年和第2年做得很好,这足以弥补第3年的不足

我实际上想要最小化的是
min(max(error\u year\u 1,error\u year\u 1,error\u year\u 1))

一种很有技巧的方法是生成一个函数f(b0,b1,b2,year1,year2,year3),它返回错误的最大值,然后使用scipy最小化该函数


实际问题:在scikit中有没有办法做到这一点?

在我看来,scikit只提供对的直接api访问,我相信一次只能看到一次

不是很漂亮,但我认为您最好的选择是查看
GridSearchCV
grid_分数
cv_验证
并手动获取一组参数,以最小化所选损失函数的最大值

但是,不要认为它保存了分类器,如果您想使用它进行预测,您可能需要重新训练另一个logit