Neural network Keras中的缺省激活函数

Neural network Keras中的缺省激活函数,neural-network,deep-learning,keras,recurrent-neural-network,keras-layer,Neural Network,Deep Learning,Keras,Recurrent Neural Network,Keras Layer,有人知道Keras中循环层中使用的默认激活函数吗 它说默认的激活函数是线性的。但是默认的循环激活函数呢。没有提到那件事。任何帮助都将不胜感激。 提前感谢KerasRecurrential是一个针对Recurrential layers的抽象类。在Keras 2.0中,所有已实施的RNN(LSTM、GRU和SimpleRN)的所有默认激活都是线性的。在以前的版本中,您有: linear对于SimpleRNN tanh用于LSTM和GRU 这里提到了2.3.0版的tanh

有人知道Keras中循环层中使用的默认激活函数吗

它说默认的激活函数是线性的。但是默认的循环激活函数呢。没有提到那件事。任何帮助都将不胜感激。
提前感谢

Keras
Recurrential
是一个针对Recurrential layers的抽象类。在Keras 2.0中,所有已实施的
RNN
LSTM
GRU
SimpleRN
)的所有默认激活都是线性的。在以前的版本中,您有:

  • linear
    对于
    SimpleRNN
  • tanh
    用于
    LSTM
    GRU


这里提到了2.3.0版的tanh我的答案对您有帮助吗?这个答案似乎过时了。在Keras 2.2.4中,LSTM的默认激活为
tanh