Machine learning 神经网络迭代、梯度下降步骤、历元、批量大小的含义是什么?
你能解释一下下面的单词吗,它真的把我弄糊涂了。 1.迭代 2.梯度下降步骤 3.新纪元Machine learning 神经网络迭代、梯度下降步骤、历元、批量大小的含义是什么?,machine-learning,neural-network,gradient-descent,Machine Learning,Neural Network,Gradient Descent,你能解释一下下面的单词吗,它真的把我弄糊涂了。 1.迭代 2.梯度下降步骤 3.新纪元 4.批量大小 在神经网络术语中: 一次历元=所有训练示例的一次向前传球和一次向后传球 批量大小=一次向前/向后传递中的训练示例数。批处理大小越大,所需的内存空间就越多 迭代次数=通过次数,每次通过使用[batch size]示例数。需要明确的是,一次传球=一次向前传球+一次向后传球(我们不将向前传球和向后传球视为两次不同的传球) 示例:如果您有1000个培训示例,并且批处理大小为500,则需要2次迭代才能
4.批量大小 在神经网络术语中:
- 一次历元=所有训练示例的一次向前传球和一次向后传球
- 批量大小=一次向前/向后传递中的训练示例数。批处理大小越大,所需的内存空间就越多
- 迭代次数=通过次数,每次通过使用[batch size]示例数。需要明确的是,一次传球=一次向前传球+一次向后传球(我们不将向前传球和向后传球视为两次不同的传球)
我希望你们现在明白了梯度下降步骤的重要性。希望这是有帮助的 除了Sayali的精彩回答,以下是:
你可以谨慎地把这些表面图给Andrew Ng和他的CurSera机器学习课程。否则,很好的答案。是的,来自安得烈NG课程。这是理解这个算法的最好方法:)我同意,但你仍然应该在它应得的地方给予赞扬。人们可能会认为这些阴谋是你自己策划的。请记住,对于堆栈溢出,我们支持知识共享的理念,因此需要归属。不管怎样,我都投了赞成票。我编辑了这个答案。谢谢你的建议。现在,我肯定会为每个答案添加参考:)一点问题也没有。欢迎来到Stack Overflow顺便说一句,祝你好运!