Neural network 假人的反向传播和训练集

Neural network 假人的反向传播和训练集,neural-network,xor,backpropagation,perceptron,Neural Network,Xor,Backpropagation,Perceptron,我刚刚开始学习神经网络,但我缺乏技能或智力,无法从流行文章中理解如何正确准备反向传播训练方法的训练集(或其局限性)。例如,我想训练最简单的两层感知器,用反向传播(例如,修改第一层4个突触和第二层4个突触的随机初始权重)来求解XOR。简单XOR函数有两个输入,一个输出:{0,0}=>0,{0,1}=>1,{1,0}=>1,{1,1}=>0。但神经网络理论告诉我们,“反向传播需要每个输入值都有一个已知的期望输出,以便计算损失函数梯度”。这是否意味着,如果训练集中的输入量不严格等于输出量,并且无法避免

我刚刚开始学习神经网络,但我缺乏技能或智力,无法从流行文章中理解如何正确准备反向传播训练方法的训练集(或其局限性)。例如,我想训练最简单的两层感知器,用反向传播(例如,修改第一层4个突触和第二层4个突触的随机初始权重)来求解XOR。简单XOR函数有两个输入,一个输出:{0,0}=>0,{0,1}=>1,{1,0}=>1,{1,1}=>0。但神经网络理论告诉我们,“反向传播需要每个输入值都有一个已知的期望输出,以便计算损失函数梯度”。这是否意味着,如果训练集中的输入量不严格等于输出量,并且无法避免这种限制,则不能应用反向传播?或者,这是否意味着,如果我想使用反向传播来解决诸如XOR之类的分类任务(即输入的数量大于输出的数量),理论告诉我们,总是有必要以类似的方式(输入=>期望的输出):{0,0}=>{0,0},{0,1}=>{1,1},{1,0}=>{1,1},{1,1}=>{0,0}? 提前谢谢你的帮助

这是否意味着,如果训练集中的输入量不严格等于输出量,则不能应用反向传播

如果你的意思是分类任务中的输出是“类”,我不这么认为

为了计算损失函数梯度,反向传播需要每个输入值的已知期望输出

我认为这意味着每个输入都应该有一个输出,而不是不同的输出

在现实问题中,像手写数字分类(MNIST),大约有50000个数据训练(输入),但只分类到10位