C++ 如何在消息传递系统中实现屏障?
我的理解是,一个主进程向所有其他进程发送一条消息。作为回报,所有其他进程向主进程发送一条消息。这足以让屏障发挥作用吗?如果没有,那么还需要什么呢?不,这还不够。一旦主进程向所有其他进程发送了一条消息,通知它们已到达屏障,并且所有其他进程都响应说它们也已到达屏障,则只有主进程知道所有进程已到达屏障。在这种情况下,需要从主机向其他进程发送另一条消息 我不主张在任何库中实际实现MPI屏障,特别是我不建议在实践中使用概述的消息序列,只是它在理论上有缺陷。让我们看一看。虽然其他实现可能略有不同,但一般通信模式应该相同 首先要注意的是,MPI的屏障没有设置成本:到达C++ 如何在消息传递系统中实现屏障?,c++,c,mpi,message-passing,barrier,C++,C,Mpi,Message Passing,Barrier,我的理解是,一个主进程向所有其他进程发送一条消息。作为回报,所有其他进程向主进程发送一条消息。这足以让屏障发挥作用吗?如果没有,那么还需要什么呢?不,这还不够。一旦主进程向所有其他进程发送了一条消息,通知它们已到达屏障,并且所有其他进程都响应说它们也已到达屏障,则只有主进程知道所有进程已到达屏障。在这种情况下,需要从主机向其他进程发送另一条消息 我不主张在任何库中实际实现MPI屏障,特别是我不建议在实践中使用概述的消息序列,只是它在理论上有缺陷。让我们看一看。虽然其他实现可能略有不同,但一般通信
MPI\u屏障
调用的进程将被阻止,直到组中的所有其他成员也调用了MPI\u屏障
。请注意,MPI不要求它们进行相同的调用,只需要调用MPI\u Barrier
。因此,由于每个进程都知道组中的节点总数,因此不需要为初始化调用分配额外的状态
现在,让我们看一些代码:
/*
* Copyright (c) 2004-2005 The Trustees of Indiana University and Indiana
* University Research and Technology
* Corporation. All rights reserved.
* Copyright (c) 2004-2005 The University of Tennessee and The University
* of Tennessee Research Foundation. All rights
* reserved.
* Copyright (c) 2004-2005 High Performance Computing Center Stuttgart,
* University of Stuttgart. All rights reserved.
* Copyright (c) 2004-2005 The Regents of the University of California.
* All rights reserved.
* Copyright (c) 2012 Oak Ridge National Labs. All rights reserved.
* [...]
*/
[...]
/*
* barrier_intra_lin
*
* Function: - barrier using O(N) algorithm
* Accepts: - same as MPI_Barrier()
* Returns: - MPI_SUCCESS or error code
*/
int
mca_coll_basic_barrier_intra_lin(struct ompi_communicator_t *comm,
mca_coll_base_module_t *module)
{
int i;
int err;
int size = ompi_comm_size(comm);
int rank = ompi_comm_rank(comm);
首先,所有节点(秩为0的节点除外,即根节点)向根节点发送一个通知,表示它们已到达屏障:
/* All non-root send & receive zero-length message. */
if (rank > 0) {
err =
MCA_PML_CALL(send
(NULL, 0, MPI_BYTE, 0, MCA_COLL_BASE_TAG_BARRIER,
MCA_PML_BASE_SEND_STANDARD, comm));
if (MPI_SUCCESS != err) {
return err;
}
之后,它们阻止等待来自根目录的通知:
err =
MCA_PML_CALL(recv
(NULL, 0, MPI_BYTE, 0, MCA_COLL_BASE_TAG_BARRIER,
comm, MPI_STATUS_IGNORE));
if (MPI_SUCCESS != err) {
return err;
}
}
根节点实现通信的另一端。首先,它会阻塞,直到收到n-1
通知(组中每个节点都会发出一个通知,除了他自己,因为他已经在障碍呼叫中了):
else{
对于(i=1;i
一旦所有通知到达,它将发送每个节点都在等待的消息,表示每个节点都已到达屏障,之后它将自行退出屏障调用:
for (i = 1; i < size; ++i) {
err =
MCA_PML_CALL(send
(NULL, 0, MPI_BYTE, i,
MCA_COLL_BASE_TAG_BARRIER,
MCA_PML_BASE_SEND_STANDARD, comm));
if (MPI_SUCCESS != err) {
return err;
}
}
}
/* All done */
return MPI_SUCCESS;
}
for(i=1;i
因此,通信模式首先是从所有节点到根节点的
n:1
,然后是从根节点到所有节点的1:n
。为了避免根节点的请求过载,OpenMPI允许使用基于树的通信模式,但基本思想是相同的:所有节点在进入屏障时通知根节点,而根节点汇总结果,并在准备继续时通知所有人。“这是否足以让屏障工作?””“行吗?你试过了吗?你面临什么问题?“如果没有,那么还需要什么?”--您告诉我们。对于接收到的每个完成消息(客户端发送,然后阻塞),主机运行类似于:If(++atomic_variable>=n)release()代码>查看主机先接收,然后发送。我在第一次阅读时也忽略了这个条件(排名>0)。
for (i = 1; i < size; ++i) {
err =
MCA_PML_CALL(send
(NULL, 0, MPI_BYTE, i,
MCA_COLL_BASE_TAG_BARRIER,
MCA_PML_BASE_SEND_STANDARD, comm));
if (MPI_SUCCESS != err) {
return err;
}
}
}
/* All done */
return MPI_SUCCESS;
}