Apache spark 是否可以在mesos群集上运行多个Spark应用程序?

Apache spark 是否可以在mesos群集上运行多个Spark应用程序?,apache-spark,mesos,Apache Spark,Mesos,我有一个Mesos集群,它有1个主集群和3个从集群(每个集群有2个内核和4GB RAM),其中已经有一个Spark应用程序正在运行。我想在同一个集群上运行另一个应用程序,因为CPU和内存利用率不高。不管怎样,当我尝试运行新应用程序时,会出现以下错误: 16/02/25 13:40:18警告TaskSchedulerImpl:初始作业未接受任何资源;检查您的群集UI以确保工作进程已注册并具有足够的内存 我猜新进程没有得到任何CPU,因为旧进程占用了所有6个CPU。 我尝试过启用动态分配,使spar

我有一个Mesos集群,它有1个主集群和3个从集群(每个集群有2个内核和4GB RAM),其中已经有一个Spark应用程序正在运行。我想在同一个集群上运行另一个应用程序,因为CPU和内存利用率不高。不管怎样,当我尝试运行新应用程序时,会出现以下错误:

16/02/25 13:40:18警告TaskSchedulerImpl:初始作业未接受任何资源;检查您的群集UI以确保工作进程已注册并具有足够的内存

我猜新进程没有得到任何CPU,因为旧进程占用了所有6个CPU。
我尝试过启用动态分配,使spark应用程序细粒度。分配多个执行器核心组合和执行器数量。我错过了什么?是否可以使用多个Spark框架运行Mesos群集?

您可以尝试设置
Spark.cores.max
以限制每个Spark驱动程序使用的CPU数量,这将释放一些资源


医生:

谢谢,这很有效。我还没有用粗粒度方法尝试cores.max。是否有理由认为细粒度模式不适合您?