Tensorflow 多对一RNN中的批量大小、历元和迭代
当涉及多对一RNN时,我很难定义批量大小 我一直在看以下文章: 这是在多对多RNN上,但批处理的定义仍然让我困惑 多对一RNN的批量大小是多少?Tensorflow 多对一RNN中的批量大小、历元和迭代,tensorflow,neural-network,recurrent-neural-network,Tensorflow,Neural Network,Recurrent Neural Network,当涉及多对一RNN时,我很难定义批量大小 我一直在看以下文章: 这是在多对多RNN上,但批处理的定义仍然让我困惑 多对一RNN的批量大小是多少? 这可能会回答我关于历元和迭代的另外两个混淆。在您链接的示例中,序列是形状向量(N,),因为序列包含N二进制数 如果构成序列的项目不是数字,而是向量,则每个序列将具有形状(N,项目大小) RNN同时并行处理多个序列。这就是我们所说的批次。并行处理的序列数为批量大小,RNN的输入形状为(批量大小,N) 在多对一场景中,批大小是相同的。唯一改变的是输出形状,
这可能会回答我关于历元和迭代的另外两个混淆。在您链接的示例中,序列是形状向量
(N,)
,因为序列包含N
二进制数
如果构成序列的项目不是数字,而是向量,则每个序列将具有形状(N,项目大小)
RNN同时并行处理多个序列。这就是我们所说的批次。并行处理的序列数为批量大小
,RNN的输入形状为(批量大小,N)
在多对一场景中,批大小是相同的。唯一改变的是输出形状,因为不是生成大小为(batch\u size,N)
,而是(batch\u size,)
(或(batch\u size,1)
)的输出,因为每个序列都将映射到单个输出
总之,批量大小是并行处理的序列数,因此多对多和多对一情况之间没有区别
关于您对历元/迭代的混淆,历元通常指对整个训练数据集迭代一次,而迭代指处理单个批次以执行一个SGD步骤