Tensorflow 在tf.keras.layers中使用等效于tf.nn.rnn_cell.dropoutrapper的dropout包装器

Tensorflow 在tf.keras.layers中使用等效于tf.nn.rnn_cell.dropoutrapper的dropout包装器,tensorflow,keras,deep-learning,Tensorflow,Keras,Deep Learning,下面是如何使用tf.nn.rnn\u cell.dropoutrapper,例如使用GRUcell: decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size), input_keep_prob=dropout_ph,

下面是如何使用
tf.nn.rnn\u cell.dropoutrapper
,例如使用
GRUcell

        decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size),
                                                    input_keep_prob=dropout_ph,
                                                    output_keep_prob=dropout_ph)
如果我们想在
tf.keras.layers
中使用
GRU
Dropout
,并且对于相同的输入/输出Dropout过程,我们应该使用:

    decoder_output = GRU(hidden_size, dropout=1-dropout_ph, return_sequences=True, return_state=False)(self.ground_truth_embedded)
    dropout_layer = Dropout(1-dropout_ph)
GRU()
中的
dropout
参数定义了输入的退出率,然后我们为输出添加了一个额外的退出层。我说得对吗?

是的,你说得对

tf.keras.layers.GRU中的dropout关键字参数在输入上是dropout,下一个dropout层在输出上