Python 如何在tensorflow回调中检查一个历元内的验证丢失?
我正在运行Tensorflow 2.0,并在2个GPU上训练一个模型。每个时代只需要3000多批,每个时代只需要不到一个小时。在每个历元之后,我都可以看到验证丢失,但我想要的是能够更频繁地检查验证丢失,比如说每200批之后 我在想我会这样做:Python 如何在tensorflow回调中检查一个历元内的验证丢失?,python,tensorflow,keras,deep-learning,Python,Tensorflow,Keras,Deep Learning,我正在运行Tensorflow 2.0,并在2个GPU上训练一个模型。每个时代只需要3000多批,每个时代只需要不到一个小时。在每个历元之后,我都可以看到验证丢失,但我想要的是能够更频繁地检查验证丢失,比如说每200批之后 我在想我会这样做: 从tensorflow.keras.callbacks导入回调 类TrackValidationLoss(回调): 列车批次端def(自身、批次、日志=无): 如果(批次%200==0): 列车损失=日志[“损失”] val_loss=#如何在此处获取验证
从tensorflow.keras.callbacks导入回调
类TrackValidationLoss(回调):
列车批次端def(自身、批次、日志=无):
如果(批次%200==0):
列车损失=日志[“损失”]
val_loss=#如何在此处获取验证损失?
#在这里处理验证丢失
这是我正在努力解决的问题。我知道我可以在一个纪元结束时得到它,但我想在一个纪元内得到它,以便更详细地了解模型随时间的变化情况。
val\u loss=logs['val\u loss']
?'val\u loss'
只是epoch\u end()上的回调方法类似的未回答问题的有效键。val\u loss=logs['val\u loss']
?'val\u loss'
仅是\u epoch\u end()上的回调方法类似的未回答问题的有效键。