Neural network Keras中的缺省激活函数
有人知道Keras中循环层中使用的默认激活函数吗 它说默认的激活函数是线性的。但是默认的循环激活函数呢。没有提到那件事。任何帮助都将不胜感激。Neural network Keras中的缺省激活函数,neural-network,deep-learning,keras,recurrent-neural-network,keras-layer,Neural Network,Deep Learning,Keras,Recurrent Neural Network,Keras Layer,有人知道Keras中循环层中使用的默认激活函数吗 它说默认的激活函数是线性的。但是默认的循环激活函数呢。没有提到那件事。任何帮助都将不胜感激。 提前感谢KerasRecurrential是一个针对Recurrential layers的抽象类。在Keras 2.0中,所有已实施的RNN(LSTM、GRU和SimpleRN)的所有默认激活都是线性的。在以前的版本中,您有: linear对于SimpleRNN tanh用于LSTM和GRU 这里提到了2.3.0版的tanh
提前感谢Keras
Recurrential
是一个针对Recurrential layers的抽象类。在Keras 2.0中,所有已实施的RNN
(LSTM
、GRU
和SimpleRN
)的所有默认激活都是线性的。在以前的版本中,您有:
对于linear
SimpleRNN
用于tanh
和LSTM
GRU
这里提到了2.3.0版的tanh我的答案对您有帮助吗?这个答案似乎过时了。在Keras 2.2.4中,LSTM的默认激活为
tanh