Cuda 需要关于在多个GPU上分发数据的指导

Cuda 需要关于在多个GPU上分发数据的指导,cuda,machine-learning,gpu,multi-gpu,Cuda,Machine Learning,Gpu,Multi Gpu,我目前正在为GPU集群开发一个机器学习工具包。 我在多个GPU上测试了逻辑回归分类器 我使用的是Master-Worker方法,主CPU创建几个POSIX线程,矩阵在GPU之间分配 但我的问题是如何存储无法存储在一台机器上的大型矩阵。是否有任何库或方法可以在节点之间共享数据?我不确定您的矩阵有多大,但您应该检查几周前发布的CUDA 4.0。主要功能之一是跨多个CUDA设备/GPU共享内存

我目前正在为GPU集群开发一个机器学习工具包。 我在多个GPU上测试了逻辑回归分类器

我使用的是Master-Worker方法,主CPU创建几个POSIX线程,矩阵在GPU之间分配


但我的问题是如何存储无法存储在一台机器上的大型矩阵。是否有任何库或方法可以在节点之间共享数据?

我不确定您的矩阵有多大,但您应该检查几周前发布的CUDA 4.0。主要功能之一是跨多个CUDA设备/GPU共享内存