Keras 隐藏层中的大量神经元会产生更好的结果,为什么?

Keras 隐藏层中的大量神经元会产生更好的结果,为什么?,keras,neural-network,lstm,recurrent-neural-network,Keras,Neural Network,Lstm,Recurrent Neural Network,你能解释一下为什么将一个隐藏层中的神经元数量增加20倍(1000个神经元)会给我带来更好的结果(在测试数据集上约为9%),而只有34个神经元 训练形状:(8589,5,11)(数据集的75%),测试2858个样本(数据集的25%) 我的架构如下: Bidirectional LSTM of size 50 neurons Dense of size 1000 neurons (activation=sigmoid) Dense of size 1 neuron (activation=sigmo

你能解释一下为什么将一个隐藏层中的神经元数量增加20倍(1000个神经元)会给我带来更好的结果(在测试数据集上约为9%),而只有34个神经元

训练形状:(8589,5,11)(数据集的75%),测试2858个样本(数据集的25%)

我的架构如下:

Bidirectional LSTM of size 50 neurons
Dense of size 1000 neurons (activation=sigmoid)
Dense of size 1 neuron (activation=sigmoid)
我在这本书中得到了更糟糕的结果(根据这本书,理论上应该是正确的):


将神经元数量从50(输入层)减少到34(隐藏层)会导致拟合不足

当隐藏层中的神经元太少,无法充分检测复杂数据集中的信号时,就会出现欠拟合

关于这个话题有一篇很棒的文章


我还想推荐这本书,供进一步阅读“人类人工智能,第3卷:深度学习和神经网络”ISBN:1505714346

它可重复吗?否则:luck@ThomasWeller当我再次运行它时,得到了相同的结果。您寻求什么样的解释?为什么你认为这是必要的?为什么你展示的第二个架构应该“理论上”更好(在一个因缺乏坚实的理论基础而臭名昭著的领域)?根据哪本书?@desertnaut我猜出来了伙计们。谢谢你的评论。问题是我正在将神经元的数量从50个减少到34个===拟合不足。当隐藏层中的神经元太少,无法充分检测复杂数据集中的信号时,就会出现欠拟合。顺便说一句,这本书;)“人类人工智能,第3卷:深度学习和神经网络”ISBN:1505714346
Bidirectional LSTM of size 50 neurons
Dense of size 34 neurons (activation=sigmoid)
Dense of size 1 neuron (activation=sigmoid)