Tensorflow Keras ProgBar(verbose=1)有一个奇怪的输出

Tensorflow Keras ProgBar(verbose=1)有一个奇怪的输出,tensorflow,keras,Tensorflow,Keras,我用keras拟合一个简单的nn,将verbose设置为1,每个历元的输出如下: 1/10纪元 9357/9357[=======================================]预计到达时间:34秒-损失:8.3609-附件: 0.0000e+-预计到达时间:19s-损耗:8.4473-附件:0.0020-预计到达时间:15s-损耗:8.4058 -附件:0.00-预计到达时间:12秒-损失:8.3917-附件:9.7656e-预计到达时间:11秒-损失: 8.3876-附件:

我用keras拟合一个简单的nn,将verbose设置为1,每个历元的输出如下:

1/10纪元
9357/9357[=======================================]预计到达时间:34秒-损失:8.3609-附件:
0.0000e+-预计到达时间:19s-损耗:8.4473-附件:0.0020-预计到达时间:15s-损耗:8.4058
-附件:0.00-预计到达时间:12秒-损失:8.3917-附件:9.7656e-预计到达时间:11秒-损失:
8.3876-附件:7.8125e-预计到达时间:9s-损失:8.3786-附件:0.0013-预计到达时间:9s
-损失:8.3754-附件:0.001-预计到达时间:8s-损失:8.3732-附件:9.7656e-0-预计到达时间:7s
-损失:8.3656-附件:0.0022-预计到达时间:7s-损失:8.3637-附件:0.007-预计到达时间:
6s-损耗:8.3672-附件:0.009-预计到达时间:6s-损耗:8.3610-附件:0.014-预计到达时间:
5s-损耗:8.3597-附件:0.017-预计到达时间:5s-损耗:8.3559-附件:0.021-预计到达时间:
5s-损耗:8.3551-附件:0.025-预计到达时间:5s-损耗:8.3530-附件:0.028-预计到达时间:
4s-损耗:8.3527-附件:0.029-预计到达时间:4s-损耗:8.3491-附件:0.031-预计到达时间:4s-
损失:8.3479-附件:0.033-预计到达时间:3s-损失:8.3465-附件:0.035-预计到达时间:3s-
损失:8.3432-附件:0.036-预计到达时间:3s-损失:8.3390-附件:0.038-预计到达时间:3s-
损失:8.3344-附件:0.041-预计到达时间:2秒-损失:8.3329-附件:0.043-预计到达时间:2秒-
损失:8.3290-附件:0.045-预计到达时间:2秒-损失:8.3288-附件:0.046-预计到达时间:2秒-
损失:8.3286-附件:0.048-预计到达时间:1s-损失:8.3273-附件:0.049-预计到达时间:1s-
损失:8.3238-附件:0.051-预计到达时间:1s-损失:8.3219-附件:0.052-预计到达时间:1s-
损失:8.3173-附件:0.054-预计到达时间:0s-损失:8.3154-附件:0.055-预计到达时间:0s-
损失:8.3152-附件:0.056-预计到达时间:0s-损失:8.3107-附件:0.057-预计到达时间:0s-
损耗:8.3073-附件:0.058-预计到达时间:0s-损耗:8.3029-附件:0.060-8S903us/步-损耗:8.3040-附件:0.0604-损耗:8.2866-损耗:0.0588
我使用Keras已经有一段时间了,但我从未得到这个输出。这是我第一次将其用于Conv2D层。这是我的代码,即使我不认为它是相关的:

cnn\u层=[32]
cnn_内核=[(5,5)]
密集_层=[32]
模型=顺序()
历史=历史()
对于范围内的i(len(cnn_层)):
add(Conv2D(cnn_层[i],cnn_内核[i],input_shape=X.shape[1:],padding='same'))
添加(BatchNormalization())
添加(激活('relu'))
add(MaxPooling2D(池大小=(2,2)))
model.add(展平())
对于范围内的i(len(密集层)):
添加(密集(密集层[i],激活='relu'))
model.add(密集型(Y.shape[1],激活='softmax'))
adm=keras.optimizers.Adam(lr=0.001,衰减=0)
compile(loss='classifical\u crossentropy',optimizer=adm,metrics=['accurity'])
model.fit(X,Y,epochs=10,batch\u size=256,validation\u split=0.05,callbacks=[history],verbose=1)

您第一次使用
历史记录
回调时也是这样吗?我在训练期间出于任何原因打印东西时都会得到这种类型的输出。可能历史记录回调正在执行一些奇怪的操作,从而中断打印您可能不应该使用它并使
history=model.fit(…)
,不进行回调。您是否能够解决此问题?我没有打印任何东西,有这个问题