Machine learning 感知器学习

Machine learning 感知器学习,machine-learning,neural-network,perceptron,Machine Learning,Neural Network,Perceptron,使用更新规则可以很容易地学习感知器 w_i=w_i+n(y-\hat{y})x 到目前为止,我阅读的所有参考资料都表明,学习率n可以设置为1 w.l.g 我的问题是,如果数据是线性可分的,有没有证据证明收敛速度总是相同的? 这不也应该取决于初始w向量吗?引用: 感知器的决策边界是不变的 权重向量的缩放;也就是说,一个用 初始权重向量\mathbf{w}和学习率\alpha\的行为 与使用初始权重向量训练的感知器相同 \mathbf{w}/\alpha\,学习率为1。因此,从最初的 随着迭代次数的

使用更新规则可以很容易地学习感知器 w_i=w_i+n(y-\hat{y})x

到目前为止,我阅读的所有参考资料都表明,学习率n可以设置为1 w.l.g

我的问题是,如果数据是线性可分的,有没有证据证明收敛速度总是相同的? 这不也应该取决于初始w向量吗?

引用:

感知器的决策边界是不变的 权重向量的缩放;也就是说,一个用 初始权重向量\mathbf{w}和学习率\alpha\的行为 与使用初始权重向量训练的感知器相同 \mathbf{w}/\alpha\,学习率为1。因此,从最初的 随着迭代次数的增加,权重变得无关紧要 对于感知器来说,学习速度并不重要,而且 通常设置为1

可能重复的