Keras 是否有其他方法可以在不必为每个历元设置采样数的情况下安装_生成器()?

Keras 是否有其他方法可以在不必为每个历元设置采样数的情况下安装_生成器()?,keras,Keras,我不理解fit\u generator()方法的设计。在我的例子中,样本的数量可能会有所不同,我无法事先确定样本的数量,除非事先检查整个数据集 model.fit\u生成器(生成器=批量生成器(列数据), 每个历元的样本数=10000, nb_epoch=1, 注意:工人=1) 在我的场景中,我记录了圈数。由于这些圈的完成速度并不相同,因此每圈中的样品数量可能会有所不同 如果我能简单地抛出一个StopIteration异常来指示一个时代的结束,那将是一件好事。更好的方法是使用EpochEnd和

我不理解
fit\u generator()
方法的设计。在我的例子中,样本的数量可能会有所不同,我无法事先确定样本的数量,除非事先检查整个数据集

model.fit\u生成器(生成器=批量生成器(列数据),
每个历元的样本数=10000,
nb_epoch=1,
注意:工人=1)
在我的场景中,我记录了圈数。由于这些圈的完成速度并不相同,因此每圈中的样品数量可能会有所不同

如果我能简单地抛出一个
StopIteration
异常来指示一个时代的结束,那将是一件好事。更好的方法是使用
EpochEnd
trainingand
异常来控制各个时期以及基于这些异常的整个培训,但我想这是不可能的


但是,我想知道我是否可以使用类似于
fit_generator()
的东西,而不必知道每个历元的样本数。

一个历元就是整个数据集的一次遍历,所以你不知道每个历元的样本数的唯一方法是如果你不知道数据集中的样本数,是吗?@MatiasValdenegro是的,或多或少当然,我可以首先迭代整个数据集并计算每个样本,但这相当慢。当然,我也可以只做一次,然后将元信息保存到某个地方,但我更希望知道一种解决方案,它不依赖于数据集中样本的确切数量。一个历元是整个数据集的一次遍历,因此不知道每个历元的样本数的唯一方法是如果不知道数据集中的样本数,是这样吗?@MatiasValdenegro是的,或多或少。当然,我可以首先迭代整个数据集并计算每个样本,但这相当慢。当然,我也可以只做一次,然后将元信息保存到某个地方,但我更希望知道一个不依赖于数据集中样本数量的解决方案。