Machine learning scikit学习中的批梯度下降

Machine learning scikit学习中的批梯度下降,machine-learning,scikit-learn,regression,linear-regression,gradient-descent,Machine Learning,Scikit Learn,Regression,Linear Regression,Gradient Descent,如何设置sklearn.linear_model.SGDRegressor的参数,使其执行批量梯度下降 我想用批量梯度下降法解决一个线性回归问题。我需要让SGD像批量梯度下降一样,这应该通过在一个时代结束时修改模型来完成(我认为)。它是否可以以某种方式参数化为那样的行为 我需要让SGD像批量梯度下降一样,这应该通过在一个时代结束时修改模型来完成(我认为) 你不能那样做;从报告中可以清楚地看出: 每次估计每个样本的损失梯度,并沿途更新模型 尽管在文件中提到 SGD允许小批量(在线/核心外)学习 这

如何设置sklearn.linear_model.SGDRegressor的参数,使其执行批量梯度下降

我想用批量梯度下降法解决一个线性回归问题。我需要让SGD像批量梯度下降一样,这应该通过在一个时代结束时修改模型来完成(我认为)。它是否可以以某种方式参数化为那样的行为

我需要让SGD像批量梯度下降一样,这应该通过在一个时代结束时修改模型来完成(我认为)

你不能那样做;从报告中可以清楚地看出:

每次估计每个样本的损失梯度,并沿途更新模型

尽管在文件中提到

SGD允许小批量(在线/核心外)学习

这可能也适用于
SGDRegressor
,实际意思是您可以使用
partial_fit
方法提供不同批次的数据;然而,计算(和更新)总是按照每个样本执行

如果您确实需要使用GD执行线性回归,您可以在Keras或Tensorflow中轻松完成,组装LR模型并使用与整个训练样本相同的批量大小

我需要让SGD像批量梯度下降一样,这应该通过在一个时代结束时修改模型来完成(我认为)

你不能那样做;从报告中可以清楚地看出:

每次估计每个样本的损失梯度,并沿途更新模型

尽管在文件中提到

SGD允许小批量(在线/核心外)学习

这可能也适用于
SGDRegressor
,实际意思是您可以使用
partial_fit
方法提供不同批次的数据;然而,计算(和更新)总是按照每个样本执行

如果您确实需要使用GD执行线性回归,您可以在Keras或Tensorflow中轻松完成,组装LR模型并使用与整个训练样本相同的批量大小