Python Keras实时训练日志重复-进度条在每个历元中反复打印?

Python Keras实时训练日志重复-进度条在每个历元中反复打印?,python,tensorflow,keras,deep-learning,Python,Tensorflow,Keras,Deep Learning,在我们的任务中,以下是输出指标;这是一个多类分类问题 - loss, gra_loss, vow_loss, cons_loss - gra_acc, vow_acc, cons_acc 我们经常使用Keras,并且经常面临它的以下奇怪行为 纪元1/15 2043/5021[=============>- 损失:2.7695-总体损失:1.9486-誓言损失:0.4557-反对损失:0.3652 -gra_acc:0.5240-誓言_acc:0.8583-反对_acc:0.88628-预计

在我们的任务中,以下是输出指标;这是一个多类分类问题

- loss, gra_loss, vow_loss, cons_loss
- gra_acc, vow_acc, cons_acc  
我们经常使用Keras,并且经常面临它的以下奇怪行为

纪元1/15 2043/5021[=============>- 损失:2.7695-总体损失:1.9486-誓言损失:0.4557-反对损失:0.3652 -gra_acc:0.5240-誓言_acc:0.8583-反对_acc:0.88628-预计到达时间:15预计到达时间:14:02-损失:4.3086-gra_los-预计到达时间:12:20-损失:3.5839- gra_损失:2.5652-誓言损失:0.5682-反对损失:0.4505-gra_acc: 0.4002-誓言损失:0.5640-反对损失:0.4475-反对损失:0.5375-反对损失:0.4281-誓言损失:0.4330 0.8317-预计到达时间:11:36-损失-E-预计到达时间:10:41-损失:3.0747-格拉损失:2.1817-誓言损失:0.4961-反对损失:-预计到达时间:10:28-损失: 3.0218-gra_损失:2.1407-vow_损失:0.4-ETA:10:12-loss:2.9572-gra_损失:2.0909-vow_损失:0.4797-cons_损失:-ETA:9:59-loss:2.9056-gra_损失:2.0-ETA:9:49-loss:2.8-ETA-ETA:9:24-loss:2.7843-gra_损失:1.45-vow损失:0.75 -格拉

这里提供更多信息的是我使用的
回调
函数


#学习率降低
def调度程序(历元):
如果历元<10:
返回0.001
其他:
返回0.001*(0.8**历元)
# -----------------------
#---------模型编译---------
model.compile(
优化器=Adam(lr=0.001),
损失={'gra':'categorical_crossentropy',
“誓言”:“绝对的”,
“缺点”:“分类的”},
损失权重={'gra':1.0,
“誓言”:1.0,
“cons”:1.0},
度量={'gra':'Accurance',
‘誓言’:‘准确’,
“缺点”:“准确性”}
)
# -----------------------
#------定义一些回调函数--------
def Call_Back():
#模型检查点
检查点=模式检查点('mod.h5',
监视器='val_loss',
verbose=0,save\u best\u only=True,
模式='min',
保存_权重(仅_=True)
lr_调度程序=LearningRateScheduler(调度程序)
csv_logger=CSVLogger('log.csv'))
早期=早期停止(监视器='val_损失',
模式=分钟,耐心=30)
#tensorboard--logdir./Graph
# http://localhost:6006
tfcallback=TensorBoard(log_dir='./图形',直方图_freq=0,
write_graph=True,write_images=True)
返回[检查点、tfcallback、csv\u记录器、lr\u调度程序]
然后,像往常一样

# calling all callbacks 
callbacks = Call_Back()

train_history = model.fit_generator(
    train_generator,
    steps_per_epoch=int(len(train_labels)/batch_size), 
    validation_data=val_generator,
    validation_steps = int(len(val_labels)/batch_size),
    verbose=1,
    epochs=epoch,
    callbacks=callbacks
)

您究竟是如何查看此输出的?在候机楼?来自日志文件?正常情况下,在jupter笔记本中。没有终端,没有日志文件。@MatiasValdenegro我要更新信息,请参阅文章底部。