Cuda 我是否可以通过Infiniband在RDMA中使用从GPU2内核到不同PCIe总线中的GPU1-RAM的加载/存储访问?

Cuda 我是否可以通过Infiniband在RDMA中使用从GPU2内核到不同PCIe总线中的GPU1-RAM的加载/存储访问?,cuda,gpgpu,multi-gpu,infiniband,rdma,Cuda,Gpgpu,Multi Gpu,Infiniband,Rdma,正如这里所说: 我可以在同一PCIe总线上从GPU0核心访问GPU1-RAM: 装载/存储 cudaMemcpy() 它被命名为“同一PCIe总线上GPU之间的NVIDIA GPUDirect v2对等(P2P)通信(2011)”: 我可以通过Infiniband使用RDMA在不同的PCIe总线上从GPU2-RAM复制到GPU1-RAM,它被命名为“GPUDirect”™ 对RDMA的支持,与CUDA 5(2012)一起推出): 但我是否可以在通过Infiniband连接的不同PCIe总

正如这里所说: 我可以在同一PCIe总线上从GPU0核心访问GPU1-RAM:

  • 装载/存储
  • cudaMemcpy()
它被命名为“同一PCIe总线上GPU之间的NVIDIA GPUDirect v2对等(P2P)通信(2011)”:

我可以通过Infiniband使用RDMA在不同的PCIe总线上从GPU2-RAM复制到GPU1-RAM,它被命名为“GPUDirect”™ 对RDMA的支持,与CUDA 5(2012)一起推出):

但我是否可以在通过Infiniband连接的不同PCIe总线上的RDMA中同时使用以下两种:

  • 加载/存储(从GPU2内核访问GPU-RAM)
  • cudaMemcpy()
    (从GPU2-RAM复制到GPU1-RAM)

或者我只能在RDMA中使用
cudaMemcpy()

GPUDirect RDMA目前只有一个公共实现,它是通过Mellanox Infiniband实现的。您需要使用类似于一个的东西来利用它

在您所展示的示例中,您不能使用
cudaMemcpy
从GPU1复制到GPU2,也就是说,您不能使用
cudaMemcpy
在位于不同主机系统中的GPU之间直接复制