使用“编译scala代码”;导入org.apache.spark.SparkContext“;无sbt

使用“编译scala代码”;导入org.apache.spark.SparkContext“;无sbt,scala,apache-spark,Scala,Apache Spark,我已经开始构建一个小的scala代码。 它将被扩展以打开SparkContext并进行一些数据处理。 到目前为止,我只导入了3个spark库来运行一个简单的代码 我收到错误“error:objectapache不是包org的成员” 问题是:如何使用scalac手动编译,以便编译过程可以包括Spark库,而无需Maven或sbt import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ import or

我已经开始构建一个小的scala代码。 它将被扩展以打开SparkContext并进行一些数据处理。 到目前为止,我只导入了3个spark库来运行一个简单的代码

我收到错误“error:objectapache不是包org的成员”

问题是:如何使用scalac手动编译,以便编译过程可以包括Spark库,而无需Maven或sbt

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object HelloWorld {
    def main(args: Array[String]) {
    println("Hello, world!")
    }
}

从internet下载每个软件包并正确定位。如果没有sbt或maver,这真的很烦人。您需要手动管理编译器的类路径。当您需要两个以上的库并且拥有两个以上的文件时,这将非常烦人。您为什么不想使用任何构建工具?你能解释一下你的用例吗?也许你可以更好地使用spark shell或类似齐柏林飞艇的笔记本环境,也可以尝试使用Ammonite脚本,让你直接下载代码库。对我来说,这似乎是一个毫无意义的问题。这有点像问我能不能不用水煮鸡蛋。为什么不简单一点呢?谢谢大家。当我在一个网站上的共享工作区中练习Scala/Spark时,我尝试了这个方法,并收取了费用。我无权在那里保存或安装。因此,我试图编译scala代码,其中有一些选项提到了所有必要文件的位置。我现在正在尝试通过培训网站。