Pyspark 基于One-Vs-Rest和梯度增强树分类器的多类分类

Pyspark 基于One-Vs-Rest和梯度增强树分类器的多类分类,pyspark,apache-spark-mllib,multiclass-classification,Pyspark,Apache Spark Mllib,Multiclass Classification,我想通过PySpark为多类分类任务构建一个梯度增强树分类器。我试过: gb = GBTClassifier(maxIter=10) ovr = OneVsRest(classifier=gb) ovrModel = ovr.fit(trainingData) gb_predictions = ovrModel.transform(valData) evaluator = MulticlassClassificationEvaluator(metricName="accuracy") gb_ac

我想通过
PySpark
为多类分类任务构建一个
梯度增强树
分类器。我试过:

gb = GBTClassifier(maxIter=10)
ovr = OneVsRest(classifier=gb)
ovrModel = ovr.fit(trainingData)
gb_predictions = ovrModel.transform(valData)
evaluator = MulticlassClassificationEvaluator(metricName="accuracy")
gb_accuracy = evaluator.evaluate(gb_predictions)
当我运行上面的代码时,出现以下错误:

numClasses = int(dataset.agg({labelCol: "max"}).head()["max("+labelCol+")"]) + 1
AssertionError: Classifier <class 'pyspark.ml.classification.GBTClassifier'> doesn't extend from HasRawPredictionCol.
numclass=int(dataset.agg({labelCol:“max”}).head()[“max(“+labelCol+”))+1
AssertionError:分类器不从HasRawPredictionCol扩展。
这是关于
ovrModel=ovr.fit(trainingData)
行的,但我不明白训练数据有什么问题