使用MPI-2的RMA函数在Fortran程序中的分段错误

使用MPI-2的RMA函数在Fortran程序中的分段错误,fortran,mpi,mpi-rma,Fortran,Mpi,Mpi Rma,以下简短的Fortran90程序只要包含MPI_GET调用,就会崩溃。 排名1尝试从排名0读取一个值,并挂起在MPI_WIN_UNLOCK中。等级0尝试在具有分段错误的MPI_屏障中崩溃 我反复检查命令的语法,但它们似乎是正确的。C/C++中的类似代码在同一系统上工作 我正在使用OpenMPI 1.4.3和gfortran 4.4.5 PROGRAM mpitest USE mpi IMPLICIT NONE INTEGER :: ierr, npe, rnk, win INTEGER (KI

以下简短的Fortran90程序只要包含MPI_GET调用,就会崩溃。 排名1尝试从排名0读取一个值,并挂起在MPI_WIN_UNLOCK中。等级0尝试在具有分段错误的MPI_屏障中崩溃

我反复检查命令的语法,但它们似乎是正确的。C/C++中的类似代码在同一系统上工作

我正在使用OpenMPI 1.4.3和gfortran 4.4.5

PROGRAM mpitest
USE mpi
IMPLICIT NONE

INTEGER :: ierr, npe, rnk, win
INTEGER (KIND=MPI_ADDRESS_KIND) lowerbound, sizeofreal
REAL :: val = 1.0, oval = 2.0

CALL MPI_INIT( ierr )
CALL MPI_COMM_RANK( MPI_COMM_WORLD, rnk, ierr )
CALL MPI_COMM_SIZE( MPI_COMM_WORLD, npe, ierr )

CALL MPI_TYPE_GET_EXTENT(MPI_REAL, lowerbound, sizeofreal, ierr)

CALL MPI_WIN_CREATE(val, sizeofreal, sizeofreal, MPI_INFO_NULL, MPI_COMM_WORLD, win, ierr)

IF( rnk .EQ. 1 ) THEN
   CALL MPI_WIN_LOCK( MPI_LOCK_SHARED, 0, 0, win, ierr )
   CALL MPI_GET( oval, 1, MPI_REAL, 0, 0, 1, MPI_REAL, win, ierr )
   CALL MPI_WIN_UNLOCK( 0, win, ierr )
END IF

CALL MPI_BARRIER( MPI_COMM_WORLD, ierr )
CALL MPI_WIN_FREE(win, ierr)
CALL MPI_FINALIZE(ierr)

END PROGRAM mpitest

mpif90 mpitest.f90
mpirun -n 2 ./a.out

*** Process received signal ***
Signal: Segmentation fault (11)
Signal code: Address not mapped (1)
Failing at address: 0x34006020a0
[ 0] /lib/x86_64-linux-gnu/libc.so.6(+0x36420) [0x7f2d1c8c1420]
[ 1] /lib/x86_64-linux-gnu/libc.so.6(+0x13ae70) [0x7f2d1c9c5e70]
[ 2] /usr/lib/libmpi.so.0(ompi_convertor_pack+0x199) [0x7f2d1c61d629]
[ 3] /usr/lib/openmpi/lib/openmpi/mca_osc_pt2pt.so(+0x56b0) [0x7f2d166876b0]
[ 4] /usr/lib/openmpi/lib/openmpi/mca_osc_pt2pt.so(+0x3a81) [0x7f2d16685a81]
[ 5] /usr/lib/openmpi/lib/openmpi/mca_osc_pt2pt.so(+0x23ac) [0x7f2d166843ac]
[ 6] /usr/lib/libopen-pal.so.0(opal_progress+0x5b) [0x7f2d1ba700db]
[ 7] /usr/lib/libmpi.so.0(+0x35635) [0x7f2d1c60f635]
[ 8] /usr/lib/openmpi/lib/openmpi/mca_coll_tuned.so(+0x1afa) [0x7f2d1688eafa]
[ 9] /usr/lib/openmpi/lib/openmpi/mca_coll_tuned.so(+0x958f) [0x7f2d1689658f]
[10] /usr/lib/libmpi.so.0(MPI_Barrier+0x8d) [0x7f2d1c6250cd]
[11] /usr/lib/libmpi_f77.so.0(PMPI_BARRIER+0x13) [0x7f2d1cf661d3]
[12] ./a.out() [0x401003]
[13] ./a.out(main+0x34) [0x401058]
[14] /lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0xed) [0x7f2d1c8ac30d]
[15] ./a.out() [0x400da9]
*** End of error message ***

这是一个棘手的问题,但一个线索来自这样一个事实,即segfault发生在一个不相关且完全安全的例程中,
MPI\u Barrier()
。问题是存在堆栈损坏

根本的问题只是参数类型不匹配(我希望MPI Fortran绑定能够捕捉到,但没有)。到的目标置换参数是一个类型为
MPI\u ADDRESS\u kind
的整数,但您只是传递了一个整数


如果您使用
lowerbound
作为目标偏移量,或者将传入的0显式提升为MPI\u地址类型,则您的程序可以运行。

感谢您的帮助。我告诉我的同事把这个贴在这里,但他没有。我决定帮助他。他现在应该更清楚了:-)