Rest 使用SBT和Scala构建spark jobserver

Rest 使用SBT和Scala构建spark jobserver,rest,apache-spark,spark-jobserver,Rest,Apache Spark,Spark Jobserver,有人能给我推荐一份关于spark jobserver的更好的文档吗。我已经浏览了url,但无法遵循相同的内容。如果有人能一步一步地讲解如何使用spark jobserver,那就太好了 用于构建项目的工具 sbt启动器版本0.13.5 Scala代码运行程序版本2.11.6 使用上述工具,我在构建spark jobserver时遇到错误。以下是我用于安装的步骤: 克隆jobserver repo 使用wget获取sbthttps://dl.bintray.com/sbt/native-pac

有人能给我推荐一份关于spark jobserver的更好的文档吗。我已经浏览了url,但无法遵循相同的内容。如果有人能一步一步地讲解如何使用spark jobserver,那就太好了

用于构建项目的工具

  • sbt启动器版本0.13.5
  • Scala代码运行程序版本2.11.6

使用上述工具,我在构建spark jobserver时遇到错误。

以下是我用于安装的步骤:

  • 克隆jobserver repo
  • 使用
    wget获取sbthttps://dl.bintray.com/sbt/native-packages/sbt/0.13.8/sbt-0.13.8.tgz
  • 将sbt/bin中的“sbt launch.jar”移动到/bin
  • 创建脚本/bin/sbt,找到内容,确保在必要时更改指向java的指针
  • 使上述脚本可执行
  • 现在将cd放入spark jobserver目录,并运行
    sbt publish local
  • 假设上述操作成功,请在同一目录中运行
    sbt
  • 最后,使用命令
    重新启动
    ,如果成功,服务器现在正在运行
    jobserver repo中提供的文档确实令人困惑

    以下是我在本地机器上手动构建和运行Spark Job Server所遵循的步骤

    1. git clone https://github.com/spark-jobserver/spark-jobserver
    2. sudo mkdir -p /var/log/job-server
    3. sudo chown user1:user1 /var/log/job-server
    4. cd spark-jobserver
    5. sbt job-server/assembly
    6. cd config
    7. cp local.sh.template abc.sh  # Note that the same name 'abc' is used in steps 8 and 10 as well
    8. cp ec2.conf.template abc.conf
    9. cd .. # The jobserver root dir
    10. ./bin/server_package.sh abc # This script copies the files and packages necessary to run job server into a single dir [ default - /tmp/job-server]
    11. cd /tmp/job-server [This is where the files and packages necessary to run job server are published by default]
    12. ./server_start.sh
    13. Run ./server_stop.sh to stop the server
    

    希望这有帮助

    第3步看起来不是个好主意,第4步中的链接已经失效。