@cuda.jit和@jit之间的差异(目标=';gpu';)

@cuda.jit和@jit之间的差异(目标=';gpu';),cuda,numba,Cuda,Numba,关于使用Continuum的Accelerate和numba包中的Python CUDA库,我有一个问题。将装饰器@jit与target=gpu一起使用是否与@cuda.jit相同 不,它们不一样,尽管最终将PTX编译成汇编程序的路径是相同的。@jit装饰器是通用编译器路径,可以选择将其引导到CUDA设备上。@cuda.jitdecorator实际上是Continuum Analytics开发的低级Python cuda内核方言。因此,您可以在@CUDA.jit中获得对CUDA内置变量(如thr

关于使用Continuum的Accelerate和numba包中的Python CUDA库,我有一个问题。将装饰器
@jit
target=gpu
一起使用是否与
@cuda.jit
相同

不,它们不一样,尽管最终将PTX编译成汇编程序的路径是相同的。
@jit
装饰器是通用编译器路径,可以选择将其引导到CUDA设备上。
@cuda.jit
decorator实际上是Continuum Analytics开发的低级Python cuda内核方言。因此,您可以在
@CUDA.jit
中获得对CUDA内置变量(如
threadIdx
)和内存空间说明符(如
\uuuuuuuuuu共享的)的支持

如果您想用Python编写CUDA内核并编译和运行它,请使用
@CUDA.jit
。否则,如果要加速现有的Python,请使用CUDA目标的
@jit