Mpi 运行并行作业而不读取PBS脚本

Mpi 运行并行作业而不读取PBS脚本,mpi,openmp,hpc,pbs,torque,Mpi,Openmp,Hpc,Pbs,Torque,是否可以禁用超读功能?或者通过torque PBS脚本只使用节点中可用的物理内核 我的问题是,当我使用node=1:ppn=12运行MPI作业时,它的运行速度很快。(第一次迭代需要不到1分钟),但当我使用node=2:ppn=12时,速度很糟糕(第一次迭代需要超过6小时) 我的任务脚本 请帮助我在不阅读的情况下运行作业。谢谢为什么要指责超线程而不是节点间通信?单节点运行不使用12个MPI进程和2个线程/MPI进程吗?在mpiexec之前尝试export OMP\u NUM\u THREADS=1

是否可以禁用超读功能?或者通过torque PBS脚本只使用节点中可用的物理内核

我的问题是,当我使用node=1:ppn=12运行MPI作业时,它的运行速度很快。(第一次迭代需要不到1分钟),但当我使用node=2:ppn=12时,速度很糟糕(第一次迭代需要超过6小时)

我的任务脚本
请帮助我在不阅读的情况下运行作业。谢谢

为什么要指责超线程而不是节点间通信?单节点运行不使用12个MPI进程和2个线程/MPI进程吗?在
mpiexec
之前尝试
export OMP\u NUM\u THREADS=1
,看看每个MPI进程只有一个线程。根据所花的时间,我同意@GillesGouaillardet。问题似乎出在MPI端。如果在一个具有“超线程”的节点中没有问题,那么为什么在两个节点中会出现“超线程”问题?节点数是具有以下属性的变量:changed@GillesGouaillardet非常感谢你的建议。是的,首先我会尝试每个套接字执行一个MPI任务。假设您的节点是双套接字,每个套接字有6个内核,那么2个节点的作业将是每个MPI任务4个MPI任务和6个OpenMP线程。您使用的是哪种互连?Infiniband?TCP/IP?没错!
  #!/bin/bash
  #PBS -N Vcrlx
  #PBS -q batch
  #PBS -l nodes=2:ppn=12
  #PBS -l walltime=20:00:00
  #PBS -m bea
  #PBS -j oe 
cd $PBS_O_WORKDIR

mpirun -np 24 pw.x  < vcrlx.in > vcrlx.out

  #!/bin/bash
  #PBS -N Vcrlx
  #PBS -q batch
  #PBS -l nodes=2:ppn=12::mpiprocs=1:ompthreads=24  <--------------
  #PBS -l walltime=24:00:00
  #PBS -m abe 
  #PBS -j oe 
cd $PBS_O_WORKDIR

mpirun -np 24 pw.x  < vcrlx.in > vcrlx.out



     Parallel version (MPI & OpenMP), running on      48 processor cores
     Number of MPI processes:                24
     Threads/MPI process:                     2

     MPI processes distributed on     2 nodes
     R & G space division:  proc/nbgrp/npool/nimage =      24