Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 支持spark作业中的多租户_Apache Spark - Fatal编程技术网

Apache spark 支持spark作业中的多租户

Apache spark 支持spark作业中的多租户,apache-spark,Apache Spark,有人能帮我理解Spark的多租户方面吗 我需要共享一个运行Spark的群集。正在执行的数据和作业应该是多租户的。有可能执行的工作来自两个竞争对手 是否有任何链接/文档或现实生活中的用例可以帮助我理解这些方面的内容?在实现之前,这似乎不可能实现 但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在集群中的特定机器上运行。在实现之前,这似乎不可能在纱线上运行 但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在群集中

有人能帮我理解Spark的多租户方面吗

我需要共享一个运行Spark的群集。正在执行的数据和作业应该是多租户的。有可能执行的工作来自两个竞争对手


是否有任何链接/文档或现实生活中的用例可以帮助我理解这些方面的内容?

在实现之前,这似乎不可能实现


但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在集群中的特定机器上运行。

在实现之前,这似乎不可能在纱线上运行


但是,您可以使用Mesos运行Spark,然后使用标签、约束和/或假资源,这样您的作业将只能在群集中的特定计算机上运行。

我想您可以使用以下链接:


但是是的,谢尔盖是对的。纱线中还没有多租户。您可以使用mesos。

我想您可以使用以下链接:

但是是的,谢尔盖是对的。纱线中还没有多租户。你可以用mesos