Python 如何在tf.keras中屏蔽lstm的输入
我正在构建一个混合模型(CNN上的RNN),我想屏蔽输入,问题是Python 如何在tf.keras中屏蔽lstm的输入,python,tensorflow,keras,Python,Tensorflow,Keras,我正在构建一个混合模型(CNN上的RNN),我想屏蔽输入,问题是 conv层不支持该掩码。 我尝试过做掩蔽并将其传递给lstm,如下所示: inputs = tf.keras.layers.Input(shape=(100,)) mask = tf.keras.layers.Masking().compute_mask(inputs) embedding = tf.keras.layers.Embedding(self.preprocess["max_features"]+
conv层不支持该掩码。 我尝试过做掩蔽并将其传递给lstm,如下所示:
inputs = tf.keras.layers.Input(shape=(100,))
mask = tf.keras.layers.Masking().compute_mask(inputs)
embedding = tf.keras.layers.Embedding(self.preprocess["max_features"]+1, 300, input_length=100,
weights=[self.preprocess["matrix"]], trainable=True)(inputs)
lstm = tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(200,recurrent_dropout=0.2, dropout=0.2,return_sequences=True))(embedding,mask=mask)
conv = tf.keras.layers.Conv1D(filters=200, kernel_size=3, padding='same', activation='relu')(lstm)
矩阵的0ind是零的向量
我从lstm层获得以下错误:
索引器错误:列表分配索引超出范围您是否尝试检查文档的
Tensorflow
?我想这会对你有所帮助。在上面的示例中,它们添加了
mask_zero=True
embedding = layers.Embedding(input_dim=5000, output_dim=16, mask_zero=True)
masked_output = embedding(padded_inputs)
print(masked_output._keras_mask)
它可以工作,我认为我不能使用mask_zero,因为conv、max pooling和flatten层,就像在上一个版本中一样:下游的所有层都应该支持mask zero。但现在证明这是可能的