Python 培训期间未加载所有培训样本

Python 培训期间未加载所有培训样本,python,tensorflow,nlp,tensorflow2.0,tensorflow-datasets,Python,Tensorflow,Nlp,Tensorflow2.0,Tensorflow Datasets,我只是从NLP开始。我从tensorflow_数据集中加载了“imdb_评论”数据集 有25000个测试样本,但当我运行时,我只训练782个样本。我没有使用批处理大小,正如您所看到的,我只是一次加载了整个数据集 其他超参数包括: vocab_size = 10000 input_length = 120 embedding_dims = 16 有人能告诉我我做错了什么吗?默认情况下,tf.keras.model的fit方法将批次大小设置为32。 当32*782=25024时,它可能只是删除

我只是从NLP开始。我从tensorflow_数据集中加载了“imdb_评论”数据集

有25000个测试样本,但当我运行时,我只训练782个样本。我没有使用批处理大小,正如您所看到的,我只是一次加载了整个数据集

其他超参数包括:

vocab_size = 10000
input_length = 120
embedding_dims = 16

有人能告诉我我做错了什么吗?

默认情况下,tf.keras.model的fit方法将批次大小设置为32。


当32*782=25024时,它可能只是删除了最后一批图像。

我从courcera的“Tensorflow in practice”中学到了这一点,对他们来说,它一次运行了所有25000个图像。它正在运行所有25000个图像,但它是成批运行的。您可以将batch_size设置为1,您将看到它运行25000(ish)批1个样本。将batch_size设置为2,它将运行12500批2个样本,以此类推。这将运行782批32个样本。