Deep learning 每个时代的最后一步都需要很长时间

Deep learning 每个时代的最后一步都需要很长时间,deep-learning,keras,Deep Learning,Keras,我在用Keras。当我运行model.fit_generator(…)时,它大约每1.5秒执行一步,但最后一步需要几分钟 Epoch 1/50 30/31 [============================>.] - ETA: 0s - loss: 2.0676 - acc: 0.2010 为什么?发生这种情况是因为您正在通过model.fit或model.fit\u generator中的参数向KERA提供验证数据 在每个历元之后,Keras获取验证数据并根据该数据对模型进行

我在用Keras。当我运行
model.fit_generator(…)
时,它大约每1.5秒执行一步,但最后一步需要几分钟

Epoch 1/50
30/31 [============================>.] - ETA: 0s - loss: 2.0676 - acc: 0.2010 

为什么?

发生这种情况是因为您正在通过
model.fit
model.fit\u generator
中的参数向KERA提供验证数据


在每个历元之后,Keras获取验证数据并根据该数据对模型进行评估,这意味着每个验证数据点向前传递一次,这可能需要很多时间,并且可能看起来Keras被卡住了,但在训练模型时这是必要的。

我在训练CNN时遇到了这个问题,研究发现,降低图像尺寸可以加快训练速度。由于在前向传递和反向传播过程中(更新权重时)输入维数降低,处理时间缩短。例如,如果您使用CNN进行图像分类,64*64的图像处理速度将比256*256的图像处理速度快得多,但显然是以由于分辨率较低而丢失信息为代价的

请包括您的全模式.fit\u发生器呼叫。