Apache spark 如何解释Spark中precisionByThreshold的返回结果?

Apache spark 如何解释Spark中precisionByThreshold的返回结果?,apache-spark,machine-learning,rdd,Apache Spark,Machine Learning,Rdd,我知道precisionByThreshold方法的概念,当我使用SparkML实现线性回归二元分类并打印precisionByThreshold的分析结果时。我得到的结果如下: Threshold: 1.0, Precision: 0.7158351409978309 Threshold: 0.0, Precision: 0.22472464244616144 为什么只有两个门槛?当阈值为1.0时,不应将任何样本分类为阳性,则精度应为0。谁能给我解释一下这个结果,并告诉我如何增加更多的阈值?

我知道precisionByThreshold方法的概念,当我使用SparkML实现线性回归二元分类并打印precisionByThreshold的分析结果时。我得到的结果如下:

Threshold: 1.0, Precision: 0.7158351409978309
Threshold: 0.0, Precision: 0.22472464244616144
为什么只有两个门槛?当阈值为1.0时,不应将任何样本分类为阳性,则精度应为0。谁能给我解释一下这个结果,并告诉我如何增加更多的阈值?提前谢谢