Neural network Keras前馈网络的微调输出

Neural network Keras前馈网络的微调输出,neural-network,keras,Neural Network,Keras,我在Keras中使用一个简单的前馈网络来解决回归问题。该网络的设置非常简单:3个隐藏层与tanh激活,输出层有一个线性激活的单一节点 但是,我注意到输出有一些相当极端的值,如下所示: 我有点担心极值会主导损失函数(MSE),所以我想对其进行修正。在Keras中有这样做的方法吗?我想你指的是正则化(L1,L2,…)(即在密集层中) 另请参见与您希望执行的操作类似吗?是的!现在,我需要弄清楚如何在Keras中有效地实现winsorization(因此,我不会使用一些硬值)。谢谢我认为上面的Lamb

我在Keras中使用一个简单的前馈网络来解决回归问题。该网络的设置非常简单:3个隐藏层与tanh激活,输出层有一个线性激活的单一节点

但是,我注意到输出有一些相当极端的值,如下所示:


我有点担心极值会主导损失函数(MSE),所以我想对其进行修正。在Keras中有这样做的方法吗?

我想你指的是正则化(L1,L2,…)(即在
密集层中)


另请参见

与您希望执行的操作类似吗?是的!现在,我需要弄清楚如何在Keras中有效地实现winsorization(因此,我不会使用一些硬值)。谢谢我认为上面的Lambda或keras.backend.clip更接近我的目标。谢谢