Keras 如何将尺寸为10的层插入和嵌入到100个单元的LSTM层?

Keras 如何将尺寸为10的层插入和嵌入到100个单元的LSTM层?,keras,Keras,以下是我的实际模型图: 如图所示,我想将嵌入层(大小10)插入LSTM层(100个单位),我想我不会使用其他两个输入(重塑和另一个) 以下是构建层的代码部分: def LSTM_softmax(self, inputs, num_classes, reshaped_inputs, initial): if initial: # First LSTM layer x = layers.LSTM(self.num_units, return_state=True)(in

以下是我的实际模型图:

如图所示,我想将嵌入层(大小10)插入LSTM层(100个单位),我想我不会使用其他两个输入(重塑和另一个)

以下是构建层的代码部分:

def LSTM_softmax(self, inputs, num_classes, reshaped_inputs, initial):


    if initial: # First LSTM layer
        x = layers.LSTM(self.num_units, return_state=True)(inputs)

    else:
        x = layers.LSTM(self.num_units, return_state=True)(reshaped_inputs, initial_state=inputs[1:])
    

    # x[0] LSTM hidden state output last time step
    # x[1] LSTM hidden state output last time step
    # x[2] LSTM cell state for last time step

    rx = layers.Reshape((-1, self.num_units),)(x[0])

    y = layers.Dense(num_classes, activation="softmax")(x[0])

    argmax = layers.Lambda(lambda x: K.argmax(x,axis=-1))(y)

    emb = layers.Embedding(num_classes,10)(argmax)

    return x, rx,emb # x = LSTM output, rx = reshaped, emb = embedding
如果您想玩代码,这里是协作,您只需要更改LSTM\u softmax函数中的代码

致意