Python 梯度下降在机器学习库中出现的位置(例如scikitlearn)

Python 梯度下降在机器学习库中出现的位置(例如scikitlearn),python,gradient-descent,Python,Gradient Descent,我知道梯度下降是如何工作的,用户可以手动定义一个梯度下降函数来最小化一些代价函数。我的问题是,当我们训练和测试机器学习模型(如线性回归或随机森林)时,GD在scikitlearn代码中出现在哪里?GD只是嵌入在.fit()函数中吗?或者我们需要将其作为模型的参数吗?简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定adam之类的优化器(普通语言中的助推器)。简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要

我知道梯度下降是如何工作的,用户可以手动定义一个梯度下降函数来最小化一些代价函数。我的问题是,当我们训练和测试机器学习模型(如线性回归或随机森林)时,GD在scikitlearn代码中出现在哪里?GD只是嵌入在.fit()函数中吗?或者我们需要将其作为模型的参数吗?

简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定adam之类的优化器(普通语言中的助推器)。

简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定优化器(普通语言中的助推器),如adam。

正如kate所说,sklearn模型使用随机梯度下降,是的,当我们调用拟合方法时,regressor.fit()当模型优化并应用随机梯度下降时。你也可以单独调用它,但没有必要,这里可能是这样的,正如kate所说,sklearn模型使用随机梯度下降,是的,当我们调用fit方法时,Regregator.fit()当模型被优化并应用随机梯度下降时。您也可以单独调用它,但没有必要,这里可能是

当我开始使用sklearn时,我也有同样的困惑。因此,线性回归有单独的实现:
vanilla
sgd
基于

直截了当地说:

SGD仅仅是一种优化技术,并不对应于 机器学习模型的特定系列。这只是训练的一种方式 模特儿

普通实现可以在类
sklearn.linear\u model.LinearRegression中找到,sgd实现可以在类
sklearn.linear\u model.sgdregrestor中找到


可以找到相应的链接,

当我开始学习sklearn时,我也有同样的困惑。因此,线性回归有单独的实现:
vanilla
sgd
基于

直截了当地说:

SGD仅仅是一种优化技术,并不对应于 机器学习模型的特定系列。这只是训练的一种方式 模特儿

普通实现可以在类
sklearn.linear\u model.LinearRegression中找到,sgd实现可以在类
sklearn.linear\u model.sgdregrestor中找到


可以找到相应的链接,并且

谢谢大家谢谢大家