Python TF2对LSTM网络中的步骤号感到困惑

Python TF2对LSTM网络中的步骤号感到困惑,python,tensorflow,keras,deep-learning,tensorflow2.0,Python,Tensorflow,Keras,Deep Learning,Tensorflow2.0,我目前正试图用自己的数据集实现身份验证网络 它“工作”(数据集大小仍然太小,无法进行任何有意义的完整测试),但我对某些事情感到困惑 输入为形状(482、12、128、1)。482个样本量,12个传感器,128为信号长度,1个通道 所以我期望的是: Epoch 1/10 X/482 [===... 在培训中,或X/批次大小(目前我还没有指定) 但它是X/16。 现在16是LSTM的序列长度(对于一个序列,我在LSTM有16个输入,每个输入128个值) 这是怎么回事?当您在不指定batch\u

我目前正试图用自己的数据集实现身份验证网络

它“工作”(数据集大小仍然太小,无法进行任何有意义的完整测试),但我对某些事情感到困惑

输入为形状(482、12、128、1)。482个样本量,12个传感器,128为信号长度,1个通道

所以我期望的是:

Epoch 1/10
X/482 [===...
在培训中,或X/批次大小(目前我还没有指定)

但它是X/16。 现在16是LSTM的序列长度(对于一个序列,我在LSTM有16个输入,每个输入128个值)

这是怎么回事?

当您在不指定
batch\u size
参数的情况下调用时,它默认为32

批量大小:整数或无。每次渐变更新的采样数。如果未指定,批次大小将默认为32。如果您的数据是数据集、生成器或keras.utils.Sequence实例的形式,请不要指定批次大小(因为它们生成批次)

如果将样本数分成32个批次,则需要16个批次(15个完整批次,1个部分批次)


因此需要16个批次才能完成1个历元,这就是为什么您将进度视为
X/16

aaah,这是有意义的。与LSTM中序列长度的相似性让我感到不安,我担心我做了一些错误的事情。非常感谢:)
482/32 = 15.0625