Apache spark Spark中Logistic回归系数标准差的计算

Apache spark Spark中Logistic回归系数标准差的计算,apache-spark,apache-spark-mllib,logistic-regression,coefficients,standard-error,Apache Spark,Apache Spark Mllib,Logistic Regression,Coefficients,Standard Error,我知道以前有人问过这个问题。但是我找不到正确的答案。上一篇文章中提供的答案建议使用统计学。chiSqTest(data),它提供拟合优度检验(皮尔逊卡方检验),而不是系数显著性的瓦尔德卡方检验 我试图在Spark中建立逻辑回归的参数估计表。我能够得到系数和截距,但是我找不到spark API来获得系数的标准误差。我发现线性模型中的系数标准误差是模型摘要的一部分。但逻辑回归模型总结并没有提供这一点。部分示例代码如下所示 import org.apache.spark.ml.classificati

我知道以前有人问过这个问题。但是我找不到正确的答案。上一篇文章中提供的答案建议使用
统计学。chiSqTest(data)
,它提供拟合优度检验(皮尔逊卡方检验),而不是系数显著性的瓦尔德卡方检验

我试图在Spark中建立逻辑回归的参数估计表。我能够得到系数和截距,但是我找不到spark API来获得系数的标准误差。我发现线性模型中的系数标准误差是模型摘要的一部分。但逻辑回归模型总结并没有提供这一点。部分示例代码如下所示

import org.apache.spark.ml.classification.{BinaryLogisticRegressionSummary, LogisticRegression}

val lr = new LogisticRegression()
  .setMaxIter(10)
  .setRegParam(0.3)
  .setElasticNetParam(0.8)

// Fit the model
val lrModel = lr.fit(training) // Assuming training is my training dataset

val trainingSummary = lrModel.summary
val binarySummary = trainingSummary.asInstanceOf[BinaryLogisticRegressionSummary] // provides the summary information of the fitted model

有没有办法计算系数的标准误差。(或获取系数的方差-协方差矩阵,从中我们可以得到标准误差)

您需要使用GLM方法,使用二项式+Logit,而不是Logistic回归