Python TF2对LSTM网络中的步骤号感到困惑
我目前正试图用自己的数据集实现身份验证网络 它“工作”(数据集大小仍然太小,无法进行任何有意义的完整测试),但我对某些事情感到困惑 输入为形状(482、12、128、1)。482个样本量,12个传感器,128为信号长度,1个通道 所以我期望的是:Python TF2对LSTM网络中的步骤号感到困惑,python,tensorflow,keras,deep-learning,tensorflow2.0,Python,Tensorflow,Keras,Deep Learning,Tensorflow2.0,我目前正试图用自己的数据集实现身份验证网络 它“工作”(数据集大小仍然太小,无法进行任何有意义的完整测试),但我对某些事情感到困惑 输入为形状(482、12、128、1)。482个样本量,12个传感器,128为信号长度,1个通道 所以我期望的是: Epoch 1/10 X/482 [===... 在培训中,或X/批次大小(目前我还没有指定) 但它是X/16。 现在16是LSTM的序列长度(对于一个序列,我在LSTM有16个输入,每个输入128个值) 这是怎么回事?当您在不指定batch\u
Epoch 1/10
X/482 [===...
在培训中,或X/批次大小(目前我还没有指定)
但它是X/16。
现在16是LSTM的序列长度(对于一个序列,我在LSTM有16个输入,每个输入128个值)
这是怎么回事?当您在不指定batch\u size
参数的情况下调用时,它默认为32
批量大小:整数或无。每次渐变更新的采样数。如果未指定,批次大小将默认为32。如果您的数据是数据集、生成器或keras.utils.Sequence实例的形式,请不要指定批次大小(因为它们生成批次)
如果将样本数分成32个批次,则需要16个批次(15个完整批次,1个部分批次)
因此需要16个批次才能完成1个历元,这就是为什么您将进度视为
X/16
aaah,这是有意义的。与LSTM中序列长度的相似性让我感到不安,我担心我做了一些错误的事情。非常感谢:)
482/32 = 15.0625