Machine learning 神经网络函数收敛到y=1

Machine learning 神经网络函数收敛到y=1,machine-learning,neural-network,backpropagation,Machine Learning,Neural Network,Backpropagation,我正在用python编写一个带反向传播的神经网络 有时它沿着点的方向上升,然后又下降 以下是完整的代码: 反向传播代码从第146行开始 (第165行中的根内容没有任何作用。只是尝试一些想法) 有什么想法可能是错误的吗?你见过这样的行为吗 非常感谢。发生这种情况的原因是,输入数据太大。对于x->inf,激活sigmoid函数收敛到f(x)=1。我必须规范化数据 e、 g: 或者根本不生成非规范化数据 此外,interims值在应用sigmoid之前更新。但是乙状结肠的起源是这样的:y’(x)=y

我正在用python编写一个带反向传播的神经网络

有时它沿着点的方向上升,然后又下降

以下是完整的代码: 反向传播代码从第146行开始 (第165行中的根内容没有任何作用。只是尝试一些想法)

有什么想法可能是错误的吗?你见过这样的行为吗


非常感谢。

发生这种情况的原因是,输入数据太大。对于x->inf,激活sigmoid函数收敛到f(x)=1。我必须规范化数据

e、 g:

或者根本不生成非规范化数据

此外,interims值在应用sigmoid之前更新。但是乙状结肠的起源是这样的:y’(x)=y(x)-(1-y(x))。在我的例子中,它只是:y’(x)=x-(1-x)

在计算增量后,我更新权重的方式也存在错误。我用python的神经网络教程重写了整个循环,然后它就成功了

它仍然不支持偏倚,但可以进行分类。对于回归来说,它不够精确,但我想这与缺少的偏差有关

代码如下:


有人建议我把我的训练数据放到神经网络框架中,看看它是否有效。没有。因此,很明显,它必须与之配合,因此我的想法是,它应该介于-1和1之间。

我希望我能向您展示一些情况的图像,这些情况下,它不会立即收敛,但会创建一些奇特的3D彩虹图案。在这些情况下,增量值介于1和0.1之间,但我不能发布超过2个链接。您应该添加更多信息:这一点意味着什么?这些颜色是什么意思?您的拓扑/模型是什么?请在这里发布代码。它肯定比以前更简单。它现在总是有一个包含3个节点的隐藏层,并且只支持一个训练输入和输出。黑线是随机权重的起点。然后,它继续以红色覆盖黄色、绿色、蓝色、紫色、红色、黄色等,以显示当应用backprop时,函数如何随时间变化。我按照本教程学习了以下公式:
a = np.array([1,2,3,4,5])
a /= a.max()