Neural network 神经网络中直到输入层的反向传播
我有一个关于神经网络反向传播的问题。假设我们有一个经过训练的DNN来处理一些数据。然后,我们将损坏的数据反馈到NN中,并将错误反向传播到输入层,而不是第一个隐藏层(也就是说,我们计算输入神经元的增量)。错误项是否显示了“干净”和“损坏”向量之间的不匹配 如果我正确地解释了这个问题,你有两个输入向量i1=(a,b,…)和i2=(c,d,…)。然后有两个对应的输出向量o1=(v,w,…)和o2=(x,y,…) i1是有效培训数据的一部分,用于向NN教授模型。完成此操作后,如果将模型正确应用于i2,是否希望使用NN检测无效o2和有效输出之间的增量 如果是这种情况,使用所有有效的输入案例对NN进行正常训练,然后输入测试案例(与已知损坏的输出向量相对应的输入向量),并在禁用反向传播的情况下收集结果。也就是说,一旦NN学会了正确的模型,停止训练,只需将“干净”的结果与损坏的结果进行比较Neural network 神经网络中直到输入层的反向传播,neural-network,Neural Network,我有一个关于神经网络反向传播的问题。假设我们有一个经过训练的DNN来处理一些数据。然后,我们将损坏的数据反馈到NN中,并将错误反向传播到输入层,而不是第一个隐藏层(也就是说,我们计算输入神经元的增量)。错误项是否显示了“干净”和“损坏”向量之间的不匹配 如果我正确地解释了这个问题,你有两个输入向量i1=(a,b,…)和i2=(c,d,…)。然后有两个对应的输出向量o1=(v,w,…)和o2=(x,y,…) i1是有效培训数据的一部分,用于向NN教授模型。完成此操作后,如果将模型正确应用于i2,是
注:您也可以对神经网络进行训练,使其接受与某个其他过程的输入相对应的一组值以及与该过程的(可能损坏的)输出相对应的一组值作为输入,并产生干净值和损坏值之间的差值作为输出,但是仅仅为了避免自己做减法而对数据进行额外的训练和构建可能是不值得的。首先,为什么要这样做?这里“干净”和“损坏”的意思是什么?刚刚提出了同样的想法,试图使用DNN上的BP从损坏的输入样本和已知的输出构建有效的输入