Machine learning 如何降低多元线性回归的均方根误差

Machine learning 如何降低多元线性回归的均方根误差,machine-learning,linear-regression,Machine Learning,Linear Regression,我正在使用scikit的线性回归来预测该模型的目标值。但均方根误差是765。如何减少此模型的均方根误差? 你能发一些代码吗。我已经更新了我的postOne,可能是为了确保拟合方程包含一个偏移项,即不仅“y=ax”,而且“y=ax+b”。检查只是为了验证应该很容易,如果拟合方程中没有偏移项,那么添加偏移项可能会有所帮助。@JamesPhillips请不要不负责任地推测:包括一个fit\u intercept参数,默认值为True。这肯定是一个有趣的注释。我会在适当的专业背景下仔细考虑。 clf=

我正在使用scikit的线性回归来预测该模型的目标值。但均方根误差是765。如何减少此模型的均方根误差?


你能发一些代码吗。我已经更新了我的postOne,可能是为了确保拟合方程包含一个偏移项,即不仅“y=ax”,而且“y=ax+b”。检查只是为了验证应该很容易,如果拟合方程中没有偏移项,那么添加偏移项可能会有所帮助。@JamesPhillips请不要不负责任地推测:包括一个
fit\u intercept
参数,默认值为
True
。这肯定是一个有趣的注释。我会在适当的专业背景下仔细考虑。
clf=LinearRegression().fit(X_train,y_train)
mse = mean_squared_error(y_test, clf.predict(X_test))
print("MSE: %.4f" % mse)
rmse=np.sqrt(mse)
print("RMSE: %.4f" % rmse)