Keras回归-我的第一层/最后一层应该有激活功能吗?

Keras回归-我的第一层/最后一层应该有激活功能吗?,keras,Keras,我一直在网上看到一些例子,其中输入和/或输出层要么没有激活函数,要么是线性激活函数,要么是None。我困惑的是什么时候使用,以及如何知道是否应该使用?我还对输入层的节点数量感到困惑 现在我有一个回归问题,我试图根据一系列输入(大约54)预测一个真实值。我应该在输入层的激活功能中使用relu?我应该将线性作为我的输出激活吗?我的数据是从0线性缩放到1的每个功能独立,因为他们是不同的单位。我也不确定输入层应该使用的节点数,因为我看到一些示例选择了一个与输入形状无关的任意数,而其他示例则表示要专门将其

我一直在网上看到一些例子,其中输入和/或输出层要么没有激活函数,要么是线性激活函数,要么是
None
。我困惑的是什么时候使用,以及如何知道是否应该使用?我还对输入层的节点数量感到困惑

现在我有一个回归问题,我试图根据一系列输入(大约54)预测一个真实值。我应该在输入层的激活功能中使用
relu
?我应该将
线性
作为我的输出激活吗?我的数据是从0线性缩放到1的每个功能独立,因为他们是不同的单位。我也不确定输入层应该使用的节点数,因为我看到一些示例选择了一个与输入形状无关的任意数,而其他示例则表示要专门将其设置为输入数,或者输入数加一表示偏差。但迄今为止,没有一个例子解释了他们选择背后的原因


由于我的模型性能不太好,我想问一下架构应该是什么可以帮助我更好地调整它。

因为你有一个回归问题要解决,你应该在最后一层使用线性激活。关于第一层,我不知道你在构建什么样的架构,但是,例如,在密集层中,如果未明确定义激活函数,则将应用标识。如果你有一个很深的网络,ReLU或ELU是很好的激活函数的候选者,因为。如果你的网络很小,你也可以使用S形或双曲线探戈。@RicardoYamamotoAbe明白了,所以None和“linear”是一样的。我就是这么想的。我会让它保持线性,看看我能从那里调什么。我一直使用ReLU进行回归,但我将尝试使用ELU和PRELU进行实验,看看结果如何。出于某种原因,tanh和sigmoid激活总是使模型在高损失下快速停止学习,而ReLU始终是最一致的。谢谢你的提示!