Python 第二个到最后一个致密层应该是什么?

Python 第二个到最后一个致密层应该是什么?,python,keras,conv-neural-network,Python,Keras,Conv Neural Network,在线查看Keras CNN示例时,我总是看到最后两层完全连接,如 model.add(Flatten()) model.add(Dense(64)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(3)) 我理解最后一个稠密层,这个数字是3,因为在这个特定的例子中,这是可以选择的类的数量 我不明白的是为什么倒数第二个致密层是64。有时是64、128或512 我的问题是64在模型中是什么意思。添加(稠密

在线查看Keras CNN示例时,我总是看到最后两层完全连接,如

model.add(Flatten()) 
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(3))
我理解最后一个稠密层,这个数字是3,因为在这个特定的例子中,这是可以选择的类的数量

我不明白的是为什么倒数第二个致密层是64。有时是64、128或512


我的问题是64在
模型中是什么意思。添加(稠密(64))
是什么决定了这个数字?

64是该层神经元的数量。为什么是64岁?对于隐藏层中神经元的数量并没有“精确”的规则。可能是参数调整的结果,也可能是因为他们的机器无法运行100个神经元,或者其他原因

当你创建一个神经网络时,层中神经元的数量是你应该调整以找到最佳结果的众多超参数之一。还有隐藏层的数量(你不知道为什么有1个完全连接的隐藏层吗?)或激活功能


我从中读到:“隐藏层的最佳大小通常介于输入层和输出层的大小之间”,但在我曾经做过的许多情况下,这种情况不会发生。

反复试验。。。经验数据。。。异想天开。。。你说得对。这个问题不适合,因为它不是关于keras编码的,试试看。它意味着一个完全连接的神经层(不是CNN层),其中有64个节点。