Neural network 适当地重新调整神经网络输出

Neural network 适当地重新调整神经网络输出,neural-network,Neural Network,我目前正在研究ANN(通过neurolab前馈MLP),并已训练我的网络将约40个数据点线性回归为单个值,例如 350,10,-6.3,…,-9.78 12,5,-2.5,…,-8.23 5,18,-10,…,-8.78 以此类推,最后一列是我的目标值。然而,在这个过程中,我将所有数据缩放为-1

我目前正在研究ANN(通过neurolab前馈MLP),并已训练我的网络将约40个数据点线性回归为单个值,例如

350,10,-6.3,…,-9.78

12,5,-2.5,…,-8.23

5,18,-10,…,-8.78

以此类推,最后一列是我的目标值。然而,在这个过程中,我将所有数据缩放为-1 I=Imin+(Imax-Imin)*(X-Dmin)/(Dmax-Dmin)


然而,这种对数据的“重新缩放”不会迫使我的预测在训练数据的同一窗口内(例如,最大值和最小值)吗?似乎我的一些预测应该能够很好地落在原始训练数据之外。有没有一种方法可以以不太狭窄的方式重新缩放数据?

稍微重新措辞(进一步思考):线性回归MLP网络是否真的只能做出介于训练目标数据最小值和最大值之间的预测?刚刚回答了我自己的问题!发现如下:““我们可以将逻辑输出激活函数替换为线性激活函数,该函数只传递激活级别不变(注意:只有输出层中的激活函数被更改;隐藏层仍然使用逻辑或双曲线激活函数).好的,所以只回答了部分问题。正确的方法是在输出上使用线性激活传递函数,但如何适当缩放数据的问题仍然存在。我不想强制输出的缩放比例与输入的缩放比例明确匹配。如果我的外推(通过线性激活)会怎么样自然会超出我的训练数据范围吗?如果你想使用线性激活函数,那么根本不要缩放你的目标。稍微重新措辞(进一步思考):线性回归MLP网络只能做出介于训练目标数据的最小值和最大值之间的预测,这是真的吗?刚刚回答了我自己的问题!发现如下:““我们可以用线性激活函数替换逻辑输出激活函数,该函数只传递激活级别不变。”(注意:只有输出层中的激活函数被更改;隐藏层仍然使用逻辑或双曲线激活函数).好的,所以只回答了部分问题。正确的方法是在输出上使用线性激活传递函数,但如何适当缩放数据的问题仍然存在。我不想强制输出的缩放比例与输入的缩放比例明确匹配。如果我的外推(通过线性激活)会怎么样自然会超出我的训练数据范围吗?如果你想使用线性激活函数,那么根本不要缩放你的目标。