Machine learning 梯度下降(GD)和随机梯度下降(SGD)的迭代次数
我对本文中提到的梯度下降(GD)和随机梯度下降(SGD)之间的计算复杂性感到好奇 我发现了一个更简单的版本,它说如果我们想达到$$e$$的精度,那么Machine learning 梯度下降(GD)和随机梯度下降(SGD)的迭代次数,machine-learning,iteration,complexity-theory,gradient-descent,Machine Learning,Iteration,Complexity Theory,Gradient Descent,我对本文中提到的梯度下降(GD)和随机梯度下降(SGD)之间的计算复杂性感到好奇 我发现了一个更简单的版本,它说如果我们想达到$$e$$的精度,那么 GD中的迭代编号为O(log(1/e)) SGD中的迭代次数为O(1/e) 如何获得这两个迭代数?谢谢大家! 在这里,你应该在这里找到你想要的东西(很抱歉没有写下来)
- GD中的迭代编号为O(log(1/e))
- SGD中的迭代次数为O(1/e)
如何获得这两个迭代数?谢谢大家! 在这里,你应该在这里找到你想要的东西(很抱歉没有写下来)