Scala 使用sbt错误在Ubuntu 20.04中构建spark;bash:sbt/sbt没有这样的文件或目录;被抛出

Scala 使用sbt错误在Ubuntu 20.04中构建spark;bash:sbt/sbt没有这样的文件或目录;被抛出,scala,apache-spark,sbt,ubuntu-20.04,Scala,Apache Spark,Sbt,Ubuntu 20.04,这是第3天尝试安装spark。我安装火花从这个。我确实看过一篇类似的文章,但是没有发布解决方案,所以我又问了一遍这个问题 在Spark下载之前没有错误。 环境信息:Vmware工作站上的Ubuntu 20 Spark版本:Spark-3.0.1.tgz Scala版本:Scala-2.11.7.tgz 在“Spark building step”期间,抛出的错误是bash:sbt/sbt没有这样的文件或目录 从OliverPed对一条评论(Thang Nguyenchien)的回复中找到了解决方

这是第3天尝试安装spark。我安装火花从这个。我确实看过一篇类似的文章,但是没有发布解决方案,所以我又问了一遍这个问题 在Spark下载之前没有错误。
环境信息:Vmware工作站上的Ubuntu 20
Spark版本:Spark-3.0.1.tgz
Scala版本:Scala-2.11.7.tgz
在“Spark building step”期间,抛出的错误是bash:sbt/sbt没有这样的文件或目录
从OliverPed对一条评论(Thang Nguyenchien)的回复中找到了解决方案。他的解决方案是:**/build/sbt**这起作用,它开始构建spark。但现在这个过程要求我做点什么。根据我的理解,它要求更新spark的位置。以下是我试图做到这一点的尝试。

更新:我发现了这个,我不知道它是否相关。如果是,那么我如何使流程更进一步?