如何使用spark shell导入自己的scala包?
我已经为spark ml库编写了一个类,它使用了其中的另一个类。 如果要澄清的话,我的类是RandomForestClassifier的包装器。 现在我想有机会从spark shell导入这个类 所以问题是:如何使包含我自己的类的包能够从spark shell导入?非常感谢 阅读文档:如何使用spark shell导入自己的scala包?,scala,apache-spark,apache-spark-mllib,apache-spark-ml,Scala,Apache Spark,Apache Spark Mllib,Apache Spark Ml,我已经为spark ml库编写了一个类,它使用了其中的另一个类。 如果要澄清的话,我的类是RandomForestClassifier的包装器。 现在我想有机会从spark shell导入这个类 所以问题是:如何使包含我自己的类的包能够从spark shell导入?非常感谢 阅读文档: 如果要导入未编译的文件,如Hello.scala,请在spark shell中执行以下操作: scala> :load ./src/main/scala/Hello.scala 它位于文档的第一页。
如果要导入未编译的文件,如
Hello.scala
,请在spark shell中执行以下操作:
scala> :load ./src/main/scala/Hello.scala
它位于文档的第一页。