Machine learning 无导数梯度下降

Machine learning 无导数梯度下降,machine-learning,neural-network,deep-learning,backpropagation,gradient-descent,Machine Learning,Neural Network,Deep Learning,Backpropagation,Gradient Descent,所以我试着去理解梯度下降,我很困惑。若你们有一条抛物线,它是随着你们改变重量而减少的。与其求x点的导数,为什么不简单地求抛物线的顶点呢?你可以。如果损失函数实际上是抛物线(或其他方便的凸函数),则可以。但更可能的是,你的损失函数是非凸的,超复杂的,你不知道它是什么。所以我们用梯度下降的方法——我们不断地采样。当你看到方便的抛物线时,这只是一个简化的图解。你可以。如果损失函数实际上是抛物线(或其他方便的凸函数),则可以。但更可能的是,你的损失函数是非凸的,超复杂的,你不知道它是什么。所以我们用梯度

所以我试着去理解梯度下降,我很困惑。若你们有一条抛物线,它是随着你们改变重量而减少的。与其求x点的导数,为什么不简单地求抛物线的顶点呢?

你可以。如果损失函数实际上是抛物线(或其他方便的凸函数),则可以。但更可能的是,你的损失函数是非凸的,超复杂的,你不知道它是什么。所以我们用梯度下降的方法——我们不断地采样。当你看到方便的抛物线时,这只是一个简化的图解。

你可以。如果损失函数实际上是抛物线(或其他方便的凸函数),则可以。但更可能的是,你的损失函数是非凸的,超复杂的,你不知道它是什么。所以我们用梯度下降的方法——我们不断地采样。当您看到方便的抛物线时,这只是一个简化的说明。

可能,datascience.stackexchange.com更适合一般的ML问题。可能,datascience.stackexchange.com更适合一般的ML问题。