Apache spark 如何使用L1正则化在spark MLlib中使用LBFGS进行逻辑回归
默认情况下使用:L2正则化Apache spark 如何使用L1正则化在spark MLlib中使用LBFGS进行逻辑回归,apache-spark,machine-learning,apache-spark-mllib,apache-spark-ml,Apache Spark,Machine Learning,Apache Spark Mllib,Apache Spark Ml,默认情况下使用:L2正则化 如何使用L1?在MLLib中,必须按如下方式设置optimizer updater: import org.apache.spark.mllib.classification.LogisticRegressionWithLBFGS 导入org.apache.spark.mllib.optimization.l1更新程序 val lr:LBFGS的逻辑回归=??? val培训:RDD[标签点]=??? lr.optimizer.setUpdater(新的L1Update
如何使用L1?在MLLib中,必须按如下方式设置optimizer updater:
import org.apache.spark.mllib.classification.LogisticRegressionWithLBFGS
导入org.apache.spark.mllib.optimization.l1更新程序
val lr:LBFGS的逻辑回归=???
val培训:RDD[标签点]=???
lr.optimizer.setUpdater(新的L1Updater)
长跑(训练)
在ML中,您可以将setElasticNetParam设置为1.0:
import org.apache.spark.ml.regression.LinearRegression
val培训:数据帧=???
val lr=新的线性回归().setElasticNetParam(1.0)
lr.fit(培训)