Python sklearn.metrics中结果精度和召回率的F1分数错误

Python sklearn.metrics中结果精度和召回率的F1分数错误,python,machine-learning,scikit-learn,Python,Machine Learning,Scikit Learn,我使用sklearn.metrics.precision\u recall\u fscore\u support()在测试集上输出分类器的评估。我使用average='macro'。 函数的结果是 精度=0.153,召回率=0.144,f1=0.122 正如我们所看到的,f1的分数在精确度和召回率方面是错误的(如果我没有弄错的话)。如果我们采用f1=2*p*r/(p+r)的公式,f1的分数应该是0.148左右 有人知道我是否错了,或者为什么函数会输出那个分数吗?你能提供一些生成那个输出的代码吗?

我使用sklearn.metrics.precision\u recall\u fscore\u support()在测试集上输出分类器的评估。我使用average='macro'。 函数的结果是

精度=0.153,召回率=0.144,f1=0.122

正如我们所看到的,f1的分数在精确度和召回率方面是错误的(如果我没有弄错的话)。如果我们采用f1=2*p*r/(p+r)的公式,f1的分数应该是0.148左右


有人知道我是否错了,或者为什么函数会输出那个分数吗?

你能提供一些生成那个输出的代码吗?p,r,f1s\u test,s=metrics.precision\u recall\u fscore\u support(y\u pred=YP,y\u true=YT,average='macro',warn\u for=tuple()),其中YP和YT是长度相同的整数列表。编辑:输出只是一个带“%.3f”的格式化字符串,您能提供一些生成该输出的代码吗?p,r,f1s\u test,s=metrics.precision\u recall\u fscore\u支持(y\u pred=YP,y\u true=YT,average='macro',warn\u for=tuple()),其中YP和YT是长度相同的整数列表。编辑:输出只是一个带“%.3f”的格式化字符串