Keras 我们能在同一个时代发送相同的数据点吗?

Keras 我们能在同一个时代发送相同的数据点吗?,keras,deep-learning,conv-neural-network,tensorflow2.0,tf.keras,Keras,Deep Learning,Conv Neural Network,Tensorflow2.0,Tf.keras,如果我们将每个历元的步数(在ImageDataGenerator中)设置为高于可能的批次总数(总样本数/批次大小)。模型会从开始重新访问相同的数据点,还是会忽略 例: 展平图像形状,将进入密集层:(2000*1) 批量:20 可能的批次总数:100(2000/20) 每个历元的步数:1000(明确设置) 据我所知,每个历元的步数独立于“真实”历元(即输入的数量/批量大小)。让我们使用一个与您想知道的类似的示例,2000个数据点和batch_size为20(这意味着对于一个“真实”历元,2000

如果我们将每个历元的步数(在ImageDataGenerator中)设置为高于可能的批次总数(总样本数/批次大小)。模型会从开始重新访问相同的数据点,还是会忽略

例:

  • 展平图像形状,将进入密集层:(2000*1)
  • 批量:20
  • 可能的批次总数:100(2000/20)
  • 每个历元的步数:1000(明确设置)

据我所知,
每个历元的步数
独立于“真实”历元(即输入的数量/
批量大小
)。让我们使用一个与您想知道的类似的示例,2000个数据点和
batch_size
为20(这意味着对于一个“真实”历元,2000/20=100个步骤):

  • 如果将每个历元的步数设置为1000:Keras要求1000个批次的循环,这基本上意味着10个“真实”历元(或整个数据遍历的10倍)
  • 如果将每个历元的步数设置为50:Keras要求循环50个批次,在下一个循环中访问一个“真实”历元的剩余50个批次

这是否意味着,如果我们在您的ex中设置了每_epoch=1000步,这与使用epoch=10和每_epoch=100步相同?如果我正确回答了您的问题,请接受。谢谢