C++ 可以在多个GPU上运行cuda内核吗

C++ 可以在多个GPU上运行cuda内核吗,c++,c,cuda,multiple-gpu,C++,C,Cuda,Multiple Gpu,这是一个相当简单的问题,但谷歌似乎没有答案,所以 我想知道的是,如果我有两个能够运行cuda的gpu卡(相同),我的内核是否可以跨越这些卡?或者它是绑定在一张卡上还是另一张卡上?也就是说,cuda是否提供了一整套可用的gpu内核,或者只是运行它的卡上的内核 如果是这样的话,我需要知道什么特别的东西来实现它吗?除了cuda sdk之外,还有什么值得了解的例子吗 目标语言当然是C/C++ 提前感谢。单个CUDA内核发布绑定到单个GPU。为了使用多个GPU,需要启动多个内核 cuda设备运行时API。

这是一个相当简单的问题,但谷歌似乎没有答案,所以

我想知道的是,如果我有两个能够运行cuda的gpu卡(相同),我的内核是否可以跨越这些卡?或者它是绑定在一张卡上还是另一张卡上?也就是说,cuda是否提供了一整套可用的gpu内核,或者只是运行它的卡上的内核

如果是这样的话,我需要知道什么特别的东西来实现它吗?除了cuda sdk之外,还有什么值得了解的例子吗

目标语言当然是C/C++


提前感谢。

单个CUDA内核发布绑定到单个GPU。为了使用多个GPU,需要启动多个内核

cuda设备运行时API。任何给定的内核启动都将在最近使用

cuda示例和示例中给出了多GPU编程的示例