Machine learning 反向传播如何在分类器中工作?

Machine learning 反向传播如何在分类器中工作?,machine-learning,neural-network,artificial-intelligence,backpropagation,Machine Learning,Neural Network,Artificial Intelligence,Backpropagation,我想我把反向传播理解为一个概念 我实现了本教程: 还有这个: 只要我有一组输入到一组输出的常量映射,这就很有效 然而,一旦我有了与输入相关的不同输出,例如AND门,如下所示: [ { input: [0, 0], output: [0] }, { input: [0, 1], output: [0] }, { input: [1, 0], output: [0] }, { input: [1, 1], output: [1] }, { input: [1,

我想我把反向传播理解为一个概念

我实现了本教程:

还有这个:

只要我有一组输入到一组输出的常量映射,这就很有效

然而,一旦我有了与输入相关的不同输出,例如AND门,如下所示:

[
    { input: [0, 0], output: [0] },
    { input: [0, 1], output: [0] },
    { input: [1, 0], output: [0] },
    { input: [1, 1], output: [1] },
    { input: [1, 1], output: [1] },
    { input: [1, 1], output: [1] },
]
由于每次输出假设为0时,所有权重都会朝着0调整,同样,如果输出假设为1,则整个概念都会分离

我绞尽脑汁想找出我在这里丢失的那块


如何根据输入调整权重?

Backprop出现在很久以前,您可能只是从opensource ML库(如OpenCV())中读取一些工作代码,或者尝试理解。Backprop出现在很久以前,您可能只是从opensource ML库(如OpenCV())中读取一些工作代码或者试着去理解。