Google colaboratory Keras model.fit缓冲数据在模型训练期间在google colab中被截断

Google colaboratory Keras model.fit缓冲数据在模型训练期间在google colab中被截断,google-colaboratory,Google Colaboratory,使用Keras.model.fit训练模型时,我在输出中遇到“缓冲数据在达到输出大小限制后被截断”,并且输出不再更新 Epoch 14/30 51/721 [=>............................] - ETA: 27s - loss: 0.7874 - dense_6_loss: 0.4921 - dense_7_loss: 0.1440 - dense_8_loss: 0.1513 - dense_6_accuracy: 0.8556 - dense_7_

使用Keras.model.fit训练模型时,我在输出中遇到“缓冲数据在达到输出大小限制后被截断”,并且输出不再更新

Epoch 14/30
    51/721 [=>............................] - ETA: 27s - loss: 0.7874 - dense_6_loss: 0.4921 - dense_7_loss: 0.1440 - dense_8_loss: 0.1513 - dense_6_accuracy: 0.8556 - dense_7_accuracy: 0.9532 - dense_8_accuracy: 0.9511Buffered data was truncated after reaching the output size limit.
这似乎是某种内存错误


即使文本的数量保持不变。

我对
epochs=100
batch\u size=1
也有同样的问题。当我将keras verbosity设置为2时,问题就解决了。要在
stdout
中保存学习结果,只需使用
记录器即可,如下所示:

from keras.callbacks import CSVLogger
csv_logger = CSVLogger(
        "log.csv",
        append=True,
        separator=','
    )
history = model.fit(
        x_train,
        y_train,
        batch_size=batch_size,
        epochs=epochs,
        verbose=2,
        validation_data=(x_test, y_test),
        callbacks=[csv_logger]
    )

我对
epochs=100
batch_size=1
也有同样的问题。当我将keras verbosity设置为2时,问题就解决了。要在
stdout
中保存学习结果,只需使用
记录器即可,如下所示:

from keras.callbacks import CSVLogger
csv_logger = CSVLogger(
        "log.csv",
        append=True,
        separator=','
    )
history = model.fit(
        x_train,
        y_train,
        batch_size=batch_size,
        epochs=epochs,
        verbose=2,
        validation_data=(x_test, y_test),
        callbacks=[csv_logger]
    )

你找到答案了吗?你找到答案了吗?