Machine learning 基本分类器与反向传播

Machine learning 基本分类器与反向传播,machine-learning,classification,backpropagation,Machine Learning,Classification,Backpropagation,我正在学习Coursera的机器学习课程,我刚刚接受了一次审问 在这张图片上,我们可以看到,为了制作xor分类器,我们构建了其他较小的分类器,这些分类器使用线性可分离门进行训练 因此,每个分类器都定义了一个作业(例如AND、OR等),并且必须为该任务训练网络 但在一个更大的神经网络中,不可能为每个神经元(或分类器)定义一个任务 所以我的问题是:这是后向传播算法的任务吗(除了它用于更新权重的事实之外)?如果有人想知道同样的事情,是的。 backprop算法使每个神经元(或分类器)都“更小的线性可

我正在学习Coursera的机器学习课程,我刚刚接受了一次审问

在这张图片上,我们可以看到,为了制作xor分类器,我们构建了其他较小的分类器,这些分类器使用线性可分离门进行训练

因此,每个分类器都定义了一个作业(例如AND、OR等),并且必须为该任务训练网络

但在一个更大的神经网络中,不可能为每个神经元(或分类器)定义一个任务


所以我的问题是:这是后向传播算法的任务吗(除了它用于更新权重的事实之外)?

如果有人想知道同样的事情,是的。
backprop算法使每个神经元(或分类器)都“更小的线性可解”。

如果有人想知道同样的事情,是的,就是这样。
backprop算法使每个神经元(或分类器)都“更小的线性可解”。

不是
python
问题,请不要发送不相关的标签(删除)。不是
python
问题,请不要发送不相关的标签(删除)。