使用sbt docker插件将文件从根级项目目录复制到docker映像中
尝试从我的项目的根目录(与使用sbt docker插件将文件从根级项目目录复制到docker映像中,docker,apache-spark,kubernetes,sbt,Docker,Apache Spark,Kubernetes,Sbt,尝试从我的项目的根目录(与build.sbt的级别相同)中获取一些文件,并使用sbt docker插件中的复制指令将它们放入我的docker映像中,但获取“未找到文件”错误。我的代码看起来像这样,试图跳转到主级别val sparkDir=baseDirectory.value/“./spark-2.4.1-bin-hadoop2.7”,但一直遇到以下错误: ${HOME}/root/submodule/../spark-2.4.1-bin-hadoop2.7/jars: no such file
build.sbt
的级别相同)中获取一些文件,并使用sbt docker插件中的复制指令将它们放入我的docker映像中,但获取“未找到文件”错误。我的代码看起来像这样,试图跳转到主级别val sparkDir=baseDirectory.value/“./spark-2.4.1-bin-hadoop2.7”
,但一直遇到以下错误:
${HOME}/root/submodule/../spark-2.4.1-bin-hadoop2.7/jars: no such file or directory
如何指示使用sbt dsl的sbt docker仅以以下方式复制文件:
copyRaw(sparkDir+“/jars”,“/opt/spark/jars”)