使用CUDA在python中展开一个简单的可并行化for循环

使用CUDA在python中展开一个简单的可并行化for循环,python,opengl,numpy,cuda,pycuda,Python,Opengl,Numpy,Cuda,Pycuda,我在python中有一个for循环,我想将其展开到GPU上。我想一定有一个简单的解决方案,但我还没有找到 我们的函数在numpy数组中的元素上循环,并将结果存储在另一个numpy数组中。每次迭代都会向这个结果数组中添加一些。我们的代码可能会有如下大的简化: import numpy as np a = np.arange(100) out = np.array([0, 0]) for x in xrange(a.shape[0]): out[0] += a[x] out[1] += a

我在python中有一个for循环,我想将其展开到GPU上。我想一定有一个简单的解决方案,但我还没有找到

我们的函数在numpy数组中的元素上循环,并将结果存储在另一个numpy数组中。每次迭代都会向这个结果数组中添加一些。我们的代码可能会有如下大的简化:

import numpy as np

a = np.arange(100)
out = np.array([0, 0])
for x in xrange(a.shape[0]):
  out[0] += a[x]
  out[1] += a[x]/2.0
如何在Python中展开这样一个循环以在GPU上运行?

开始的地方就是这里的示例

import pycuda.autoinit
import pycuda.driver as drv
import numpy

from pycuda.compiler import SourceModule
mod = SourceModule("""
__global__ void multiply_them(float *dest, float *a, float *b)
{
  const int i = threadIdx.x;
  dest[i] = a[i] * b[i];
}
""")

multiply_them = mod.get_function("multiply_them")

a = numpy.random.randn(400).astype(numpy.float32)
b = numpy.random.randn(400).astype(numpy.float32)

dest = numpy.zeros_like(a)
multiply_them(
        drv.Out(dest), drv.In(a), drv.In(b),
        block=(400,1,1), grid=(1,1))

print dest-a*b
您将要并行化的代码部分放在C代码段中,并从python中调用它

例如,您的数据的大小需要远远大于100才能使其具有价值。您需要某种方法将数据划分为块。如果你想增加1000000个数字,你可以把它分成1000个区块。在并行代码中添加每个块。然后在python中添加结果

对于这种类型的并行化来说,添加东西并不是一项自然的任务。GPU倾向于为每个像素执行相同的任务。您有一个需要在多个像素上操作的任务

最好先和cuda合作。一个相关的线程是。

您的问题是?如何在python中将循环展开到GPU上。我应该使用什么库,调用什么函数。你检查过pycuda的文档了吗?