Scala sbt组件文件中的“sbt”是什么意思;已经是容器的一部分了吗?”;

Scala sbt组件文件中的“sbt”是什么意思;已经是容器的一部分了吗?”;,scala,apache-spark,jar,sbt,sbt-assembly,Scala,Apache Spark,Jar,Sbt,Sbt Assembly,我在尝试打包我的多项目spark作业时遇到了sbt assembly中的重复数据消除错误。我查看了sbt组装文档,它说 如果您试图排除已经成为容器的一部分的jar文件(如SCAP),请考虑将依赖库的范围定义为“提供”的配置: 但是“已经是容器的一部分”是什么意思呢?我已经复制了下面的完整链接 这意味着特定的目标节点(如Spark这样的容器)已经具有所有必需的jar,并且不需要在程序集中包含相同的jar 这就是提供的作用域的含义,即在运行环境中提供了一个特定的库,因此不将其包含在最终的jar中,只

我在尝试打包我的多项目spark作业时遇到了sbt assembly中的重复数据消除错误。我查看了sbt组装文档,它说

如果您试图排除已经成为容器的一部分的jar文件(如SCAP),请考虑将依赖库的范围定义为“提供”的配置:

但是“已经是容器的一部分”是什么意思呢?我已经复制了下面的完整链接


这意味着特定的目标节点(如Spark这样的容器)已经具有所有必需的jar,并且不需要在程序集中包含相同的jar

这就是提供的作用域的含义,即在运行环境中提供了一个特定的库,因此不将其包含在最终的jar中,只需对其进行引用即可