Tensorflow 多对一RNN中的批量大小、历元和迭代

Tensorflow 多对一RNN中的批量大小、历元和迭代,tensorflow,neural-network,recurrent-neural-network,Tensorflow,Neural Network,Recurrent Neural Network,当涉及多对一RNN时,我很难定义批量大小 我一直在看以下文章: 这是在多对多RNN上,但批处理的定义仍然让我困惑 多对一RNN的批量大小是多少? 这可能会回答我关于历元和迭代的另外两个混淆。在您链接的示例中,序列是形状向量(N,),因为序列包含N二进制数 如果构成序列的项目不是数字,而是向量,则每个序列将具有形状(N,项目大小) RNN同时并行处理多个序列。这就是我们所说的批次。并行处理的序列数为批量大小,RNN的输入形状为(批量大小,N) 在多对一场景中,批大小是相同的。唯一改变的是输出形状,

当涉及多对一RNN时,我很难定义批量大小

我一直在看以下文章:

这是在多对多RNN上,但批处理的定义仍然让我困惑

多对一RNN的批量大小是多少?


这可能会回答我关于历元和迭代的另外两个混淆。

在您链接的示例中,序列是形状向量
(N,)
,因为序列包含
N
二进制数

如果构成序列的项目不是数字,而是向量,则每个序列将具有形状
(N,项目大小)

RNN同时并行处理多个序列。这就是我们所说的批次。并行处理的序列数为
批量大小
,RNN的输入形状为
(批量大小,N)

在多对一场景中,批大小是相同的。唯一改变的是输出形状,因为不是生成大小为
(batch\u size,N)
,而是
(batch\u size,)
(或
(batch\u size,1)
)的输出,因为每个序列都将映射到单个输出

总之,批量大小是并行处理的序列数,因此多对多和多对一情况之间没有区别

关于您对历元/迭代的混淆,历元通常指对整个训练数据集迭代一次,而迭代指处理单个批次以执行一个SGD步骤