Keras 如何将尺寸为10的层插入和嵌入到100个单元的LSTM层?
以下是我的实际模型图: 如图所示,我想将嵌入层(大小10)插入LSTM层(100个单位),我想我不会使用其他两个输入(重塑和另一个) 以下是构建层的代码部分:Keras 如何将尺寸为10的层插入和嵌入到100个单元的LSTM层?,keras,Keras,以下是我的实际模型图: 如图所示,我想将嵌入层(大小10)插入LSTM层(100个单位),我想我不会使用其他两个输入(重塑和另一个) 以下是构建层的代码部分: def LSTM_softmax(self, inputs, num_classes, reshaped_inputs, initial): if initial: # First LSTM layer x = layers.LSTM(self.num_units, return_state=True)(in
def LSTM_softmax(self, inputs, num_classes, reshaped_inputs, initial):
if initial: # First LSTM layer
x = layers.LSTM(self.num_units, return_state=True)(inputs)
else:
x = layers.LSTM(self.num_units, return_state=True)(reshaped_inputs, initial_state=inputs[1:])
# x[0] LSTM hidden state output last time step
# x[1] LSTM hidden state output last time step
# x[2] LSTM cell state for last time step
rx = layers.Reshape((-1, self.num_units),)(x[0])
y = layers.Dense(num_classes, activation="softmax")(x[0])
argmax = layers.Lambda(lambda x: K.argmax(x,axis=-1))(y)
emb = layers.Embedding(num_classes,10)(argmax)
return x, rx,emb # x = LSTM output, rx = reshaped, emb = embedding
如果您想玩代码,这里是协作,您只需要更改LSTM\u softmax函数中的代码
致意