Apache spark 是否存在与Spark MLlib';s二进制分类度量?

Apache spark 是否存在与Spark MLlib';s二进制分类度量?,apache-spark,apache-spark-mllib,apache-spark-ml,Apache Spark,Apache Spark Mllib,Apache Spark Ml,我想使用诸如precisionByThreshold和recallByThreshold之类的二进制分类度量,它们在Spark MLlib的BinaryClassificationMetrics中可用,我想知道Spark ML中是否有等效的度量 我看到Spark ML有这个类,但它看起来只支持areaUnderROC和areaUnderPR,而不支持precisionByThreshold和recallByThreshold。有没有办法在spark ML中获得这些额外的指标

我想使用诸如precisionByThreshold和recallByThreshold之类的二进制分类度量,它们在Spark MLlib的BinaryClassificationMetrics中可用,我想知道Spark ML中是否有等效的度量

我看到Spark ML有这个类,但它看起来只支持areaUnderROC和areaUnderPR,而不支持precisionByThreshold和recallByThreshold。有没有办法在spark ML中获得这些额外的指标