Apache spark SBT控制台与Spark Shell的交互开发

Apache spark SBT控制台与Spark Shell的交互开发,apache-spark,sbt,spark-shell,Apache Spark,Sbt,Spark Shell,我想知道使用SBT控制台和Spark shell以交互方式为Spark项目开发新代码之间是否有重要区别(笔记本电脑并不是服务器防火墙的真正选项) 两者都可以导入项目依赖项,但对我来说SBT更方便一些。SBT自动引入build中的所有依赖项。SBT和spark shell可以在命令行中使用--jar、--packages和--repositories参数 SBT具有方便的initialCommands设置,可在启动时自动运行线路。我使用它初始化SparkContext 还有其他吗?使用SBT,

我想知道使用SBT控制台和Spark shell以交互方式为Spark项目开发新代码之间是否有重要区别(笔记本电脑并不是服务器防火墙的真正选项)

  • 两者都可以导入项目依赖项,但对我来说SBT更方便一些。SBT自动引入build中的所有依赖项。SBT和spark shell可以在命令行中使用--jar、--packages和--repositories参数
  • SBT具有方便的
    initialCommands
    设置,可在启动时自动运行线路。我使用它初始化SparkContext

还有其他吗?

使用SBT,理论上不需要安装SPARK本身


我使用databricks。

对于SBT,理论上不需要安装SPARK本身


我使用databricks。

根据我的经验,sbt天生调用外部jar,激发shell天生调用一系列导入和上下文。我更喜欢spark shell,因为它遵循构建spark提交会话时需要遵守的标准

为了在生产环境中运行代码,您需要将代码构建到JAR中,通过spark submit调用它们。要构建它,您需要通过sbt(编译检查)对其进行打包,并运行spark submit调用(逻辑检查)


您可以使用任何一种工具进行开发,但您应该像没有sbt(调用JAR)和spark shell(调用导入和上下文)的优点一样进行编码,因为spark submit两者都不具备。

根据我的经验,sbt天生调用外部JAR spark shell天生调用一系列导入和上下文。我更喜欢spark shell,因为它遵循构建spark提交会话时需要遵守的标准

为了在生产环境中运行代码,您需要将代码构建到JAR中,通过spark submit调用它们。要构建它,您需要通过sbt(编译检查)对其进行打包,并运行spark submit调用(逻辑检查)


您可以使用任何一种工具进行开发,但您应该像没有sbt(调用JAR)和spark shell(调用导入和上下文)的优点一样进行编码,因为spark submit两者都不具备。

U实际上没有回答问题。U实际上没有回答问题。