Scikit-线性回归-提取度量 Python 3 scikit-learn-0.23.1 numpy-1.18.4 scipy-1.4.1

Scikit-线性回归-提取度量 Python 3 scikit-learn-0.23.1 numpy-1.18.4 scipy-1.4.1,python,scikit-learn,iteration,linear-regression,Python,Scikit Learn,Iteration,Linear Regression,是否可以提取拟合回归模型所需的迭代次数(通过梯度下降)?除了一般的模型评估指标外,我看不到任何与迭代次数相关的东西 regressor = LinearRegression() regressor.fit(xtr, ytr) print('Mean Absolute Error:', metrics.mean_absolute_error(yt, y_pred)) print('Mean Squared Error:', metrics.mean_squared_error(yt, y

是否可以提取拟合回归模型所需的迭代次数(通过梯度下降)?除了一般的模型评估指标外,我看不到任何与迭代次数相关的东西

regressor = LinearRegression()  
regressor.fit(xtr, ytr)

print('Mean Absolute Error:', metrics.mean_absolute_error(yt, y_pred))  
print('Mean Squared Error:', metrics.mean_squared_error(yt, y_pred))  
print('Root Mean Squared Error:', np.sqrt(metrics.mean_squared_error(yt, y_pred)))

Scikit显示了所有可能的度量模块

正如Gilad所指出的,使用OLS计算线性回归问题不涉及迭代。我在这里猜测,您正在尝试使用梯度下降实现线性回归模型。对于后者,迭代次数是在执行之前定义的

因此,要使用梯度下降,您可以手动编写()或使用回归或Sklearn中的回归。这里有一个n_iter参数,通过该参数可以获得确定COEF所需的迭代次数

类sklearn.linear\u model.Ridge(alpha=1.0,*,拟合截距=True,归一化=False,复制=True,最大iter=None,tol=0.001,解算器=auto',随机状态=None)

属性

n_iter:\u无或形状不规则(n_目标,) 每个目标的实际迭代次数。仅适用于sag和lsqr解算器。其他解算器将不返回任何值


注意:您可以将解算器定义为
sag或saga
,以使用梯度下降法。

正如Gilad所指出的,使用OLS计算线性回归问题不涉及迭代。我在这里猜测,您正在尝试使用梯度下降实现线性回归模型。对于后者,迭代次数是在执行之前定义的

因此,要使用梯度下降,您可以手动编写()或使用回归或Sklearn中的回归。这里有一个n_iter参数,通过该参数可以获得确定COEF所需的迭代次数

类sklearn.linear\u model.Ridge(alpha=1.0,*,拟合截距=True,归一化=False,复制=True,最大iter=None,tol=0.001,解算器=auto',随机状态=None)

属性

n_iter:\u无或形状不规则(n_目标,) 每个目标的实际迭代次数。仅适用于sag和lsqr解算器。其他解算器将不返回任何值


注意:您可以将解算器定义为
sag或saga
,以使用梯度下降法。

我认为没有任何迭代。解决线性回归问题就是解决OLS问题,OLS是一个封闭的形式,使用SVDI计算,不认为有任何迭代。解决线性回归问题就是解决OLS问题,OLS是一种封闭形式,使用SVD计算。应该说梯度下降-谢谢!没有问题:)…很高兴能帮上忙是的,道歉。应该说梯度下降-谢谢!没有问题:)…很高兴它有帮助