Nlp fastText中的精确性和召回率?

Nlp fastText中的精确性和召回率?,nlp,classification,precision,fasttext,Nlp,Classification,Precision,Fasttext,我实现了文本分类的fastText,链接 我想知道有什么问题precision@1或P@5方法我做了一个二进制分类,但我测试了不同的数字,我不理解结果: haos-mbp:fastText hao$ ./fasttext test trainmodel.bin train.valid 2 N 312 P@2 0.5 R@2 1 Number of examples: 312 haos-mbp:fastText hao$ ./fasttext test trainmodel.bin train

我实现了文本分类的fastText,链接 我想知道有什么问题precision@1或P@5方法我做了一个二进制分类,但我测试了不同的数字,我不理解结果:

haos-mbp:fastText hao$ ./fasttext test trainmodel.bin train.valid 2
N   312
P@2 0.5
R@2 1
Number of examples: 312
haos-mbp:fastText hao$ ./fasttext test trainmodel.bin train.valid 1
N   312
P@1 0.712
R@1 0.712
Number of examples: 312
haos-mbp:fastText hao$ ./fasttext test trainmodel.bin train.valid 3
N   312
P@3 0.333
R@3 1
Number of examples: 312

精度是相关结果数与程序检索到的结果总数的比率。假设一个文档搜索引擎检索到100个文档,其中90个与查询相关,那么精度为90/100(0.9)。因为我们已经用100个结果计算了精度,所以这是P@100.

召回率是算法检索到的相关结果和所有相关结果总数的比率。与上面的示例相同,如果相关文档的总数为110,则召回为90/110

简而言之,回忆有助于评估信息检索程序在获取相关结果方面的完整性;精度有助于评估结果的准确性


请检查fasttext中的二进制分类,精度是正确预测的标签数量与模型预测的标签数量的比率

召回率是正确预测的标签数量与验证数据集中实际标签数量的比率

例如: 验证数据集中输入的实际标签:
a、B、C、F、G

模型输入的预测标签:
A、B、C、D

正确预测的标签:
A、B、C

精度:
3/4
=
0.75

召回:
3/5
=
0.6