Parallel processing 使用Sun Grid引擎为SMP作业保留整个节点?

Parallel processing 使用Sun Grid引擎为SMP作业保留整个节点?,parallel-processing,sungridengine,Parallel Processing,Sungridengine,我有一个使用Sun网格引擎在SMP并行环境中运行的作业。这段代码使用得很好,通常运行良好。代码比处理器更占用内存,因此我通常使用-pe smp 12在集群上保留整个节点(我们有12个核心/节点),即使作业本身(在提交的脚本中指定)只使用其中的一小部分 因为我请求了SMP并行环境,所以所有12个插槽都应该来自同一个节点,并且应该有1个插槽/核心,对吗?因此,这应该保留整个节点。直到最近,它在这方面一直运作良好。另一个用户提交了一个作业,该作业以某种方式获得了同一节点上的插槽,最近也使用了网格引擎。

我有一个使用Sun网格引擎在SMP并行环境中运行的作业。这段代码使用得很好,通常运行良好。代码比处理器更占用内存,因此我通常使用-pe smp 12在集群上保留整个节点(我们有12个核心/节点),即使作业本身(在提交的脚本中指定)只使用其中的一小部分


因为我请求了SMP并行环境,所以所有12个插槽都应该来自同一个节点,并且应该有1个插槽/核心,对吗?因此,这应该保留整个节点。直到最近,它在这方面一直运作良好。另一个用户提交了一个作业,该作业以某种方式获得了同一节点上的插槽,最近也使用了网格引擎。我不知道这是怎么发生的。网格引擎是否会使用少于请求的插槽启动SMP作业?如果没有,是否有更好的方法确保我的作业保留整个节点?

我找到了。第二个作业被错误地提交到默认的“all”队列,该队列包含所有内核

我不太明白:其他作业是否被分派到您的作业已经运行的同一个节点,从而超额订阅了该节点?