Neural network 神经网络的不良回归输出-一个不需要的上界?

Neural network 神经网络的不良回归输出-一个不需要的上界?,neural-network,regression,pybrain,Neural Network,Regression,Pybrain,我在一个使用pybrain(一个用于神经网络的python库)的项目中遇到了一个问题 建立人工神经网络,并进行回归预测。 我使用的是3层人工神经网络,有14个输入,10个隐藏层神经元,2个输出。典型的培训或测试示例如下: 输入(按空间划分): 1534334.489 1554790.856 156060.675 20 20 50 45000-11.399025 13 1.05E-03 1.775475116 20 0 输出(按空间划分): 1571172.296 20 我使用pybrain的Ba

我在一个使用pybrain(一个用于神经网络的python库)的项目中遇到了一个问题 建立人工神经网络,并进行回归预测。 我使用的是3层人工神经网络,有14个输入,10个隐藏层神经元,2个输出。典型的培训或测试示例如下:

输入(按空间划分): 1534334.489 1554790.856 156060.675 20 20 50 45000-11.399025 13 1.05E-03 1.775475116 20 0

输出(按空间划分): 1571172.296 20

我使用pybrain的BackpropTrainer,所以它使用反向传播进行训练,我一直训练到收敛。 结果的奇怪之处在于,对第一个输出的预测(例如,使用测试输入的训练神经网络的第一个输出)很好地跟踪了曲线下部的真实值,但当真实值上升时,似乎有一个不需要的上限

我把隐藏神经元的数量改为10个,但它的行为仍然是这样的。即使我使用原始训练样本测试训练过的ANN,它仍然会有这样一个上界


有人对这里的问题有什么直觉或建议吗?谢谢

尝试将(-1,+1)之间的值(输入和输出)标准化。

事实上,我尝试了标准化,并且成功了。但是你给了我这个暗示,谢谢!