Python LSTM Keras是否考虑了时间序列之间的依赖关系?

Python LSTM Keras是否考虑了时间序列之间的依赖关系?,python,time-series,keras,lstm,Python,Time Series,Keras,Lstm,我有: 多时间序列作为输入 预测时间序列输出点 如何确保模型通过使用输入中所有时间序列之间的依赖关系来预测数据 编辑1 我当前的型号: model = Sequential() model.add(keras.layers.LSTM(hidden_nodes, input_dim=num_features, input_length=window, consume_less="mem")) model.add(keras.layers.Dense(num_features, activati

我有:

  • 多时间序列作为输入
  • 预测时间序列输出点
如何确保模型通过使用输入中所有时间序列之间的依赖关系来预测数据

编辑1
我当前的型号:

model = Sequential()
model.add(keras.layers.LSTM(hidden_nodes, input_dim=num_features, input_length=window, consume_less="mem"))
model.add(keras.layers.Dense(num_features, activation='sigmoid'))
optimizer = keras.optimizers.SGD(lr=learning_rate, decay=1e-6, momentum=0.9, nesterov=True)

默认情况下,keras中的LSTM层(以及任何其他类型的循环层)不是有状态的,因此,每次向网络馈入新输入时,状态都会重置。您的代码使用此默认版本。如果需要,可以通过在LSTM层内指定
stateful=True
使其有状态,然后不会重置状态。您可以阅读有关语法的更多信息,并提供有关有状态模式的更多信息

以下是相应语法的示例,摘自:


你能添加你当前的模型吗?在这种情况下,批量大小等于1,但我认为这不适合我的问题。你认为呢?取batch size=1比较容易(你也可以这样做,这只会让代码运行得更慢)。否则,您必须小心地重新排列数据。这是由于我的回答中提供的第二个链接中的以下句子:“使用有状态模型,所有状态都传播到下一批。这意味着位于索引i X_i的样本状态将用于下一批样本X_i+bs的计算,其中bs是批量大小(无洗牌)”
trainX = numpy.reshape(trainX, (trainX.shape[0], trainX.shape[1], 1))
testX = numpy.reshape(testX, (testX.shape[0], testX.shape[1], 1))
# create and fit the LSTM network
batch_size = 1
model = Sequential()
model.add(LSTM(4, batch_input_shape=(batch_size, look_back, 1), stateful=True))
model.add(Dense(1))
model.compile(loss='mean_squared_error', optimizer='adam')
for i in range(100):
    model.fit(trainX, trainY, epochs=1, batch_size=batch_size, verbose=2, shuffle=False)
    model.reset_states()
# make predictions
trainPredict = model.predict(trainX, batch_size=batch_size)
model.reset_states()
testPredict = model.predict(testX, batch_size=batch_size)