Machine learning 梯度下降和代价函数J(θ)有什么区别?

Machine learning 梯度下降和代价函数J(θ)有什么区别?,machine-learning,Machine Learning,我在coursera学习机器学习。但我对梯度下降和成本函数有点混淆。应该在何时何地使用这些函数?梯度下降需要一个成本函数(有许多类型的成本函数)。一个常用的函数是均方误差,它测量估计值(数据集)和估计值(预测值)之间的差异 我们需要这个成本函数,因为我们想最小化它。最小化任何函数意味着在该函数中找到最深的谷。请记住,成本函数用于监控ML模型预测中的错误。因此,最小化这一点,基本上意味着获得尽可能低的误差值,或者提高模型的精度。简而言之,我们在调整模型参数(权重和偏差)的同时,通过迭代训练数据集来

我在coursera学习机器学习。但我对梯度下降和成本函数有点混淆。应该在何时何地使用这些函数?

梯度下降需要一个成本函数(有许多类型的成本函数)。一个常用的函数是均方误差,它测量估计值(数据集)和估计值(预测值)之间的差异

我们需要这个成本函数,因为我们想最小化它。最小化任何函数意味着在该函数中找到最深的谷。请记住,成本函数用于监控ML模型预测中的错误。因此,最小化这一点,基本上意味着获得尽可能低的误差值,或者提高模型的精度。简而言之,我们在调整模型参数(权重和偏差)的同时,通过迭代训练数据集来提高精度

简言之,梯度下降的全部目的是最小化成本函数

J(ϴ)通过试错法最小化,即尝试大量值,然后检查输出。所以在实践中,这意味着这项工作是手工完成的,而且非常耗时

梯度下降基本上只是做J(ϴ)做的事情,但是以自动化的方式 — 一点一点地改变θ值或参数,直到我们希望达到最小值。这是一种迭代方法,其中模型向最陡下降方向移动,即θ的最佳值

为什么使用梯度下降法?它很容易实现,是一种通用的优化技术,所以即使您更改了模型,它也可以工作。如果您有很多特性,那么最好使用GD,因为在这种情况下,正常的J(ϴ)计算变得非常昂贵。

可能的重复