Apache spark 如何在PySpark环境中向随机林模型添加检查点?
我使用的是Apache spark 如何在PySpark环境中向随机林模型添加检查点?,apache-spark,pyspark,random-forest,apache-spark-mllib,apache-spark-ml,Apache Spark,Pyspark,Random Forest,Apache Spark Mllib,Apache Spark Ml,我使用的是RandomForest.trainClassifier 支持的参数包括: 输入 numClasses 分类特征信息 裸树 特征子策略 杂质 最大深度 麦克宾斯 种子 但是额外的参数,如useNodeIdCache、checkpointDir和checkpointInterval在Scala中可用 如何在PySpark中实现这些功能?PySpark.mllib处于维护模式,开发时间更长(不会添加对这些功能的访问)。如果您使用功能齐全的API,请使用提供以下功能的pyspark.ml
RandomForest.trainClassifier
支持的参数包括:
- 输入
- numClasses
- 分类特征信息
- 裸树
- 特征子策略
- 杂质
- 最大深度
- 麦克宾斯
- 种子
useNodeIdCache
、checkpointDir
和checkpointInterval
在Scala中可用
如何在PySpark中实现这些功能?
PySpark.mllib
处于维护模式,开发时间更长(不会添加对这些功能的访问)。如果您使用功能齐全的API,请使用提供以下功能的pyspark.ml
: