Numpy 在Keras度量之间共享操作结果

Numpy 在Keras度量之间共享操作结果,numpy,tensorflow,keras,deep-learning,tf.keras,Numpy,Tensorflow,Keras,Deep Learning,Tf.keras,我有一个(时间昂贵的)操作,多个指标有共同点。在度量之间共享操作结果的最佳方法是什么,以避免每次重新计算的开销?您应该创建一个特殊的类来覆盖tf.keras.callback.callback()(从而实现您自己的回调类),并通过覆盖\u end()上的方法来计算所需的度量 然后,您可以计算一些度量,比如在验证集上,因此您可以手动确保,如果您计算例如TP+FP,您确实可以使用此总和来计算精度(TP/(TP+FP)),而不是重新计算精度 手动执行此操作可确保不会进行额外/多余的计算。感谢您的快速回

我有一个(时间昂贵的)操作,多个指标有共同点。在度量之间共享操作结果的最佳方法是什么,以避免每次重新计算的开销?

您应该创建一个特殊的类来覆盖
tf.keras.callback.callback()
(从而实现您自己的回调类),并通过覆盖\u end()上的方法
来计算所需的度量

然后,您可以计算一些度量,比如在验证集上,因此您可以手动确保,如果您计算例如
TP+FP
,您确实可以使用此总和来计算精度(
TP/(TP+FP)
),而不是重新计算精度


手动执行此操作可确保不会进行额外/多余的计算。

感谢您的快速回复。我是否必须将验证集传递给回调才能获取指标,或者回调是否可以访问提供的数据集to.fit()?是的,Ramon。请看我在这里的回答:。如果它解决了您的问题,请接受我的答案作为解决问题(按我答案下方的绿色勾号)。