Parallel processing .pbs文件中的朴素并行化

Parallel processing .pbs文件中的朴素并行化,parallel-processing,job-scheduling,pbs,qsub,supercomputers,Parallel Processing,Job Scheduling,Pbs,Qsub,Supercomputers,是否可以在PBS文件中跨for循环进行并行化 下面是my Attention.pbs文件。我想分配4个节点,同时为每个节点分配16个进程。我已经成功地完成了这项工作,但现在我有4个作业,我想向每个节点发送一个作业。(我需要这样做,因为排队algo会让我等待几天,以便在我使用的集群上提交4个单独的作业) 作业独立运行,不使用相同的数据。我可以从同一pbs脚本为每个节点运行1个作业吗 谢谢。实现这一点的标准方法是通过消息传递接口(MPI)库。OpenMPI是一个很好的实现,您可以使用它。可以找到一些

是否可以在PBS文件中跨for循环进行并行化

下面是my Attention.pbs文件。我想分配4个节点,同时为每个节点分配16个进程。我已经成功地完成了这项工作,但现在我有4个作业,我想向每个节点发送一个作业。(我需要这样做,因为排队algo会让我等待几天,以便在我使用的集群上提交4个单独的作业)

作业独立运行,不使用相同的数据。我可以从同一pbs脚本为每个节点运行1个作业吗


谢谢。

实现这一点的标准方法是通过消息传递接口(MPI)库。OpenMPI是一个很好的实现,您可以使用它。可以找到一些基本示例,如果您想了解更多信息,这是OpenMPI的一个示例。

实现这一点的标准方法是通过消息传递接口(MPI)库。OpenMPI是一个很好的实现,您可以使用它。如果您想了解更多信息,可以找到一些基本示例,这是OpenMPI的一个示例。

所以我会说:'mpiexec-n 16:./job1.sh:./job2.sh:./job3.sh:./job4.sh',这会在不同节点上为每个作业打开16个进程吗?我相信会,但老实说,我不是专家。我使用MPI代码,但我不经常编写它们。所以我会说:“mpiexec-n 16:./job1.sh:./job2.sh:./job3.sh:./job4.sh”这会在不同的节点上为每个作业打开16个进程吗?我相信会,但老实说,我不是专家。我使用MPI代码,但我不经常编写它们。
#!/bin/bash
#PBS -q normal
#PBS -l nodes=4:ppn=16:native
#PBS -l walltime=10:00:00
#PBS -N HuMiBi000
#PBS -o HuMiBi.000.out
#PBS -e HuMiBi.000.err
#PBS -A csd399
#PBS -m abe
#PBS -V

./job1.sh
./job2.sh
./job3.sh
./job4.sh