Python Keras:是否可以对检查点使用model.evaluate()而不是model.fit度量

Python Keras:是否可以对检查点使用model.evaluate()而不是model.fit度量,python,tensorflow,keras,Python,Tensorflow,Keras,众所周知,在拟合keras模型时,报告的指标包括所有层,包括辍学。因此,报告的指标(精度、召回率、f1甚至准确度)将不同于拟合期间以及使用model.predict()使用预测结果时报告的指标 我很好奇是否有可能让keras在使用当前model.predict()而不是内部度量的用户定义例程上执行检查点 例如: model.fit(X,y,validation_data=(Xv,yv),\ callbacks=[K.ModelCheckpoint('/tmp/dump.h5',\ mo

众所周知,在拟合keras模型时,报告的指标包括所有层,包括辍学。因此,报告的指标(精度、召回率、f1甚至准确度)将不同于拟合期间以及使用model.predict()使用预测结果时报告的指标

我很好奇是否有可能让keras在使用当前model.predict()而不是内部度量的用户定义例程上执行检查点

例如:

model.fit(X,y,validation_data=(Xv,yv),\
  callbacks=[K.ModelCheckpoint('/tmp/dump.h5',\ 
  monitor='val_acc')])

将对拟合期间测量的验证精度执行检查点(并使用
verbose=1
报告)。但假设我想使用模型在验证集上所做的实际预测,使用F1分数执行检查点。是否可以获取
ModelCheckpoint
以使用类似
sklearn.metrics.f1_score(yv,model.predict(Xv))

是否希望在每次执行验证时计算自定义度量?是。我想使用mode.predict()报告模型上的f1_分数,以便关闭辍学。并且在编译模型时添加度量不符合您的需要?你可以把电话打过去我不需要。我可以让它在回调期间使用度量,但它使用了包含辍学的训练模型。我需要的指标不包括辍学。目前,我在培训完成后手动执行此操作,但随着培训的进行(在每个历元之后),看到此值会很好