Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/16.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 使用包专用DefaultParamsWriter的Spark自定义估计器_Scala_Apache Spark - Fatal编程技术网

Scala 使用包专用DefaultParamsWriter的Spark自定义估计器

Scala 使用包专用DefaultParamsWriter的Spark自定义估计器,scala,apache-spark,Scala,Apache Spark,我正在实现一个自定义估计器来扩展mllib,并且需要使用一个包私有util类DefaultParamsWriter。我可以将类的包名更改为org.apache.spark.ml包,并将其他代码作为jar构建它吗?在spark cluster上运行scala应用程序会有任何问题吗?为什么不将代码复制到您的应用程序中?Spark是开源的。DefaultParamsWriter是公共抽象类MLWriter的子类,也许它足以为您扩展MLWriter?

我正在实现一个自定义估计器来扩展mllib,并且需要使用一个包私有util类DefaultParamsWriter。我可以将类的包名更改为org.apache.spark.ml包,并将其他代码作为jar构建它吗?在spark cluster上运行scala应用程序会有任何问题吗?

为什么不将代码复制到您的应用程序中?Spark是开源的。
DefaultParamsWriter
是公共抽象类
MLWriter
的子类,也许它足以为您扩展
MLWriter