Python Keras序列模型中的最大安全批量

Python Keras序列模型中的最大安全批量,python,tensorflow,keras,sequential,batchsize,Python,Tensorflow,Keras,Sequential,Batchsize,我正在训练一个Keras顺序模型,其中我没有指定批量大小。当我查看培训期间保存所有批次大小的列表时,我发现1200似乎是最大批次大小 我的输入数据有1500个样本。当我将批量大小指定为1500时,keras仍然将其拆分为1200和额外的300。当我不指定某个东西时,我得到37乘以32批次加上一个16号(=1200),然后是9乘以32再加上一个12号(=300)。保存的批大小: 我查阅了keras顺序模型文档,但没有找到解释为什么会发生这种情况 我想我的内存是否太小,无法容纳1500个样本,但在

我正在训练一个Keras顺序模型,其中我没有指定
批量大小
。当我查看培训期间保存所有批次大小的列表时,我发现1200似乎是最大批次大小

我的输入数据有1500个样本。当我将批量大小指定为1500时,keras仍然将其拆分为1200和额外的300。当我不指定某个东西时,我得到37乘以32批次加上一个16号(=1200),然后是9乘以32再加上一个12号(=300)。保存的批大小:

我查阅了keras顺序模型文档,但没有找到解释为什么会发生这种情况


我想我的内存是否太小,无法容纳1500个样本,但在计算过程中,它只使用了大约60%。这并不能解释第二个观察结果。

这是因为默认情况下,使用它进行训练需要80%的数据,使用它进行测试需要20%的数据。

可能需要80%到20%的数据,就像80%训练20%的测试一样。我问自己,我怎么看不到这一点。你说得对,这就是原因。