Neural network 使用有状态LSTM进行批处理的这两种方法之间有什么区别

Neural network 使用有状态LSTM进行批处理的这两种方法之间有什么区别,neural-network,lstm,recurrent-neural-network,rnn,Neural Network,Lstm,Recurrent Neural Network,Rnn,对于有状态LSTM,这两种方法实际上是否相同: batch_input_shape = [1,10,2] for _ in range(3): x_batch, y_batch = batcher() model.train_on_batch(x_batch, y_batch) model.reset_states() 及 i、 e.第一种方法是将30行数据分散在3个单独的批次(共10个序列)上,并在所有3次train\u on\u batch()调用后调用reset\u st

对于有状态LSTM,这两种方法实际上是否相同:

batch_input_shape = [1,10,2]
for _ in range(3):
    x_batch, y_batch = batcher()
    model.train_on_batch(x_batch, y_batch)
model.reset_states()

i、 e.第一种方法是将30行数据分散在3个单独的批次(共10个序列)上,并在所有3次
train\u on\u batch()
调用后调用
reset\u states()。第二种方法是一批提交30行数据,共3行,共10个序列,然后立即调用
reset_states()


假设所有数据都相同,并且把训练时间放在一边(第一种方法需要更长的时间),最终结果是一样的吗?

对于任何感兴趣的人来说,它们都是一样的。该状态在批之间进行,因此提交3批(共10批)以生成30批与提交一批(共30批)相同。

这并不能回答该问题。若要评论或要求作者澄清,请在其帖子下方留下评论。-不过,这应该是问题的一部分,而不是答案。不,不应该。我想我知道我在问什么问题,除非你知道的不同?我问这两种方法是否产生了相同的最终结果——这正是我所问的。
batch_input_shape = [3,10,2]
x_batch, y_batch = batcher()
model.train_on_batch(x_batch, y_batch)
model.reset_states()