Python 梯度下降在机器学习库中出现的位置(例如scikitlearn)
我知道梯度下降是如何工作的,用户可以手动定义一个梯度下降函数来最小化一些代价函数。我的问题是,当我们训练和测试机器学习模型(如线性回归或随机森林)时,GD在scikitlearn代码中出现在哪里?GD只是嵌入在.fit()函数中吗?或者我们需要将其作为模型的参数吗?简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定adam之类的优化器(普通语言中的助推器)。简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定优化器(普通语言中的助推器),如adam。正如kate所说,sklearn模型使用随机梯度下降,是的,当我们调用拟合方法时,regressor.fit()当模型优化并应用随机梯度下降时。你也可以单独调用它,但没有必要,这里可能是这样的,正如kate所说,sklearn模型使用随机梯度下降,是的,当我们调用fit方法时,Regregator.fit()当模型被优化并应用随机梯度下降时。您也可以单独调用它,但没有必要,这里可能是当我开始使用sklearn时,我也有同样的困惑。因此,线性回归有单独的实现:Python 梯度下降在机器学习库中出现的位置(例如scikitlearn),python,gradient-descent,Python,Gradient Descent,我知道梯度下降是如何工作的,用户可以手动定义一个梯度下降函数来最小化一些代价函数。我的问题是,当我们训练和测试机器学习模型(如线性回归或随机森林)时,GD在scikitlearn代码中出现在哪里?GD只是嵌入在.fit()函数中吗?或者我们需要将其作为模型的参数吗?简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要具体说明这一点。有些函数允许您指定adam之类的优化器(普通语言中的助推器)。简短回答:大多数sklearn模型使用随机梯度下降进行优化/拟合。你永远不需要
vanilla
和sgd
基于
直截了当地说:
SGD仅仅是一种优化技术,并不对应于
机器学习模型的特定系列。这只是训练的一种方式
模特儿
普通实现可以在类sklearn.linear\u model.LinearRegression中找到,sgd实现可以在类sklearn.linear\u model.sgdregrestor中找到
可以找到相应的链接,当我开始学习sklearn时,我也有同样的困惑。因此,线性回归有单独的实现:vanilla
和sgd
基于
直截了当地说:
SGD仅仅是一种优化技术,并不对应于
机器学习模型的特定系列。这只是训练的一种方式
模特儿
普通实现可以在类sklearn.linear\u model.LinearRegression中找到,sgd实现可以在类sklearn.linear\u model.sgdregrestor中找到
可以找到相应的链接,并且谢谢大家谢谢大家