Machine learning 梯度下降(GD)和随机梯度下降(SGD)的迭代次数

Machine learning 梯度下降(GD)和随机梯度下降(SGD)的迭代次数,machine-learning,iteration,complexity-theory,gradient-descent,Machine Learning,Iteration,Complexity Theory,Gradient Descent,我对本文中提到的梯度下降(GD)和随机梯度下降(SGD)之间的计算复杂性感到好奇 我发现了一个更简单的版本,它说如果我们想达到$$e$$的精度,那么 GD中的迭代编号为O(log(1/e)) SGD中的迭代次数为O(1/e) 如何获得这两个迭代数?谢谢大家! 在这里,你应该在这里找到你想要的东西(很抱歉没有写下来)

我对本文中提到的梯度下降(GD)和随机梯度下降(SGD)之间的计算复杂性感到好奇

我发现了一个更简单的版本,它说如果我们想达到$$e$$的精度,那么

  • GD中的迭代编号为O(log(1/e))
  • SGD中的迭代次数为O(1/e)

如何获得这两个迭代数?谢谢大家!

在这里,你应该在这里找到你想要的东西(很抱歉没有写下来)