Apache spark 支持spark作业中的多租户
有人能帮我理解Spark的多租户方面吗 我需要共享一个运行Spark的群集。正在执行的数据和作业应该是多租户的。有可能执行的工作来自两个竞争对手Apache spark 支持spark作业中的多租户,apache-spark,Apache Spark,有人能帮我理解Spark的多租户方面吗 我需要共享一个运行Spark的群集。正在执行的数据和作业应该是多租户的。有可能执行的工作来自两个竞争对手 是否有任何链接/文档或现实生活中的用例可以帮助我理解这些方面的内容?在实现之前,这似乎不可能实现 但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在集群中的特定机器上运行。在实现之前,这似乎不可能在纱线上运行 但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在群集中
是否有任何链接/文档或现实生活中的用例可以帮助我理解这些方面的内容?在实现之前,这似乎不可能实现
但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在集群中的特定机器上运行。在实现之前,这似乎不可能在纱线上运行
但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在群集中的特定计算机上运行。我想您可以使用以下链接:
但是是的,谢尔盖是对的。纱线中还没有多租户。您可以使用mesos。我想您可以使用以下链接: 但是是的,谢尔盖是对的。纱线中还没有多租户。你可以用mesos