Cuda 我是否可以通过Infiniband在RDMA中使用从GPU2内核到不同PCIe总线中的GPU1-RAM的加载/存储访问?
正如这里所说: 我可以在同一PCIe总线上从GPU0核心访问GPU1-RAM:Cuda 我是否可以通过Infiniband在RDMA中使用从GPU2内核到不同PCIe总线中的GPU1-RAM的加载/存储访问?,cuda,gpgpu,multi-gpu,infiniband,rdma,Cuda,Gpgpu,Multi Gpu,Infiniband,Rdma,正如这里所说: 我可以在同一PCIe总线上从GPU0核心访问GPU1-RAM: 装载/存储 cudaMemcpy() 它被命名为“同一PCIe总线上GPU之间的NVIDIA GPUDirect v2对等(P2P)通信(2011)”: 我可以通过Infiniband使用RDMA在不同的PCIe总线上从GPU2-RAM复制到GPU1-RAM,它被命名为“GPUDirect”™ 对RDMA的支持,与CUDA 5(2012)一起推出): 但我是否可以在通过Infiniband连接的不同PCIe总
- 装载/存储
cudaMemcpy()
- 加载/存储(从GPU2内核访问GPU-RAM)
(从GPU2-RAM复制到GPU1-RAM)cudaMemcpy()
或者我只能在RDMA中使用
cudaMemcpy()
?GPUDirect RDMA目前只有一个公共实现,它是通过Mellanox Infiniband实现的。您需要使用类似于一个的东西来利用它
在您所展示的示例中,您不能使用cudaMemcpy
从GPU1复制到GPU2,也就是说,您不能使用cudaMemcpy
在位于不同主机系统中的GPU之间直接复制