Keras 在存在高级_激活层的情况下添加退出层

Keras 在存在高级_激活层的情况下添加退出层,keras,neural-network,Keras,Neural Network,我有以下使用Keras的NN体系结构: from keras import Sequential from keras.layers import Dense import keras model = Sequential() model.add(Dense(16, input_dim=32)) model.add(keras.layers.advanced_activations.PReLU()) model.add(Dense(8)) model.add(keras.layers.adv

我有以下使用Keras的NN体系结构:

from keras import Sequential
from keras.layers import Dense
import keras

model = Sequential()
model.add(Dense(16, input_dim=32))
model.add(keras.layers.advanced_activations.PReLU())

model.add(Dense(8))
model.add(keras.layers.advanced_activations.PReLU())

model.add(Dense(4))

model.add(Dense(1, activation='sigmoid'))
我想知道在
advanced\u activations.PReLU()
之前或之后添加
model.add(Dropout(0.5))
是否有什么区别。换句话说,在存在高级激活层的情况下,添加退出层的正确位置在哪里


谢谢。

无论你是在激活之前还是之后进行,这都无关紧要,因为对于大多数激活,f(0)=0,那么在激活之后或之前退出将产生相同的结果。

无论你是在激活之前还是之后进行,这都无关紧要,因为对于大多数激活,f(0)=0,然后在之后或之前退出将产生相同的结果