Tensorflow 在tf.keras.layers中使用等效于tf.nn.rnn_cell.dropoutrapper的dropout包装器
下面是如何使用Tensorflow 在tf.keras.layers中使用等效于tf.nn.rnn_cell.dropoutrapper的dropout包装器,tensorflow,keras,deep-learning,Tensorflow,Keras,Deep Learning,下面是如何使用tf.nn.rnn\u cell.dropoutrapper,例如使用GRUcell: decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size), input_keep_prob=dropout_ph,
tf.nn.rnn\u cell.dropoutrapper
,例如使用GRUcell
:
decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size),
input_keep_prob=dropout_ph,
output_keep_prob=dropout_ph)
如果我们想在tf.keras.layers
中使用GRU
和Dropout
,并且对于相同的输入/输出Dropout过程,我们应该使用:
decoder_output = GRU(hidden_size, dropout=1-dropout_ph, return_sequences=True, return_state=False)(self.ground_truth_embedded)
dropout_layer = Dropout(1-dropout_ph)
GRU()
中的dropout
参数定义了输入的退出率,然后我们为输出添加了一个额外的退出层。我说得对吗?是的,你说得对
tf.keras.layers.GRU中的dropout关键字参数在输入上是dropout,下一个dropout层在输出上