Machine learning 回忆在机器学习中意味着什么?

Machine learning 回忆在机器学习中意味着什么?,machine-learning,statistics,precision-recall,Machine Learning,Statistics,Precision Recall,一个分类器,例如贝叶斯分类器的召回是什么意思?请举例说明 例如,测试数据的精度=正确/正确+错误文档。如何理解召回?ML中的精度与信息检索中的精度相同 recall = TP / (TP + FN) precision = TP / (TP + FP) (其中TP=真阳性,TN=真阴性,FP=假阳性,FN=假阴性) 将这些符号用于二元分类器是有意义的,通常“正”是不太常见的分类。请注意,精度/召回度量实际上是一种特定形式,其中#classes=2表示更一般的情况 此外,您的“精度”符号实际上是

一个分类器,例如贝叶斯分类器的召回是什么意思?请举例说明


例如,测试数据的精度=正确/正确+错误文档。如何理解召回?

ML中的精度与信息检索中的精度相同

recall = TP / (TP + FN)
precision = TP / (TP + FP)
(其中TP=真阳性,TN=真阴性,FP=假阳性,FN=假阴性)

将这些符号用于二元分类器是有意义的,通常“正”是不太常见的分类。请注意,精度/召回度量实际上是一种特定形式,其中#classes=2表示更一般的情况


此外,您的“精度”符号实际上是精度,是
(TP+TN)/ALL

召回字面意思是召回(发现)了多少真正的积极因素,即也找到了多少正确的点击


精确性(您的公式不正确)是返回的点击数中有多少是真的阳性,即找到的点击数中有多少是正确的。

用非常简单的语言:例如,在一系列显示政客的照片中,政客XY的照片有多少次被正确地认为是A.默克尔而不是其他政客的照片

  • 精度是另一个人被识别的次数(误报):(正确命中)/(正确命中)+(误报)的比率

  • recall是照片中显示的人的姓名被错误识别的次数(“recall”):(正确呼叫)/(正确呼叫)+(错误呼叫)的比率


我发现维基百科中的解释非常有用:

假设一个用于识别照片中的狗的计算机程序在一张包含12只狗和一些猫的图片中识别出8只狗。在确定的8只狗中,5只实际上是狗(真阳性),而其余的是猫(假阳性)。该程序的精度为5/8,召回率为5/12。当一个搜索引擎返回30个页面时,其中只有20个页面是相关的,而没有返回40个额外的相关页面,其精度为20/30=2/3,而召回率为20/60=1/3

因此,在本例中,精度是“搜索结果有多有用”,召回率是“结果有多完整”


给你举个例子。假设我们有一个机器学习模型,可以检测猫对狗。人类提供的实际标签被称为地面真相。 同样,模型的输出称为预测。现在看下表:

ExampleNo        Ground-truth        Model's Prediction
   0                 Cat                   Cat
   1                 Cat                   Dog
   2                 Cat                   Cat
   3                 Dog                   Cat
   4                 Dog                   Dog
比如说,我们想找到猫类的召回。根据定义,召回是指正确识别某一类别的百分比(从该类别的所有给定示例中)
。因此,对于cat类,模型正确识别了它2次(在示例0和2中)。但这是否意味着实际上只有两只猫<斯特朗>不事实上,地面真相中有3只猫(人类标记)。那么,这个特定类别的正确识别率是多少<代码>三分之二,即(2/3)*100=66.67%或
0.667
,如果在1内对其进行规格化。下面是示例3中cat的另一个预测,但它不是正确的预测,因此,我们不考虑它

现在来谈谈数学公式。首先要理解两个术语:

TP(真阳性):当某件事实际上是阳性时,预测它是阳性的。如果猫是我们的正面例子,那么当它实际上是一只猫时,预测它是一只猫

FN(假阴性):当某个东西实际上不是阴性时,预测它是阴性的

现在对于某个类,该分类器的输出可以是两种类型:Cat或Dog(不是Cat)。所以正确识别的数字就是真正数(TP)。同样地,在《地面真相》中,该类实例的总数将为TP+FN。因为在所有猫中,模型要么正确地检测到它们(TP),要么没有正确地检测到它们(FN,即,模型在实际为阳性(Cat)时错误地说阴性(非Cat))。因此,对于某一类,TP+FN表示该类的基本事实中可用的示例总数。所以公式是:

Recall = TP / (TP + FN)
同样,狗的回忆也可以计算出来。当时认为狗是积极的阶级,猫是消极的阶级

因此,对于任何数量的类来说,要找到某个类的回忆将该类视为积极的类,将该类的其余的视为消极的类,并使用公式找到回忆。继续每个类的过程,以查找所有类的召回


如果您也想了解精度,请转到此处:

您的“精度”不正确,您给出的公式描述了精度,不精确。我投票结束这个问题,因为它不是关于中定义的编程,而是关于ML理论和/或方法-请参阅机器学习中的介绍和说明。