Apache spark 如何在Spark中为逻辑回归中的每一行赋予权重?

Apache spark 如何在Spark中为逻辑回归中的每一行赋予权重?,apache-spark,logistic-regression,weighted,Apache Spark,Logistic Regression,Weighted,我们使用的是Spark 1.3.1我查阅了Spark文档,发现我们无法为逻辑回归的数据中的每一行赋予权重。有没有简单的方法可以让我在spark的逻辑回归中加入权重?或者这个设施是在spark为未来规划的 PS:我不是说初始重量。我说的是加权Logistic回归。这对于Logistic回归现在是可能的 model = LogisticRegression() model.setWeightCol(weight_column_name) 你能分享你的代码吗?你现在在做什么?

我们使用的是Spark 1.3.1我查阅了Spark文档,发现我们无法为逻辑回归的数据中的每一行赋予权重。有没有简单的方法可以让我在spark的逻辑回归中加入权重?或者这个设施是在spark为未来规划的


PS:我不是说初始重量。我说的是加权Logistic回归。

这对于Logistic回归现在是可能的

model = LogisticRegression()
model.setWeightCol(weight_column_name)

你能分享你的代码吗?你现在在做什么?