Scala 使用包专用DefaultParamsWriter的Spark自定义估计器
我正在实现一个自定义估计器来扩展mllib,并且需要使用一个包私有util类DefaultParamsWriter。我可以将类的包名更改为org.apache.spark.ml包,并将其他代码作为jar构建它吗?在spark cluster上运行scala应用程序会有任何问题吗?为什么不将代码复制到您的应用程序中?Spark是开源的。Scala 使用包专用DefaultParamsWriter的Spark自定义估计器,scala,apache-spark,Scala,Apache Spark,我正在实现一个自定义估计器来扩展mllib,并且需要使用一个包私有util类DefaultParamsWriter。我可以将类的包名更改为org.apache.spark.ml包,并将其他代码作为jar构建它吗?在spark cluster上运行scala应用程序会有任何问题吗?为什么不将代码复制到您的应用程序中?Spark是开源的。DefaultParamsWriter是公共抽象类MLWriter的子类,也许它足以为您扩展MLWriter?
DefaultParamsWriter
是公共抽象类MLWriter
的子类,也许它足以为您扩展MLWriter
?