不明原因的CUDA碰撞
我的计算机中有一个专用的计算GPU(不用于显示)。它的特性是:不明原因的CUDA碰撞,cuda,Cuda,我的计算机中有一个专用的计算GPU(不用于显示)。它的特性是: Device 0: "Tesla C2050" CUDA Driver Version / Runtime Version 6.0 / 6.0 CUDA Capability Major/Minor version number: 2.0 Total amount of global memory: 2688 MBytes (2818244608 bytes) (14) Mul
Device 0: "Tesla C2050"
CUDA Driver Version / Runtime Version 6.0 / 6.0
CUDA Capability Major/Minor version number: 2.0
Total amount of global memory: 2688 MBytes (2818244608 bytes)
(14) Multiprocessors, ( 32) CUDA Cores/MP: 448 CUDA Cores
GPU Clock rate: 1147 MHz (1.15 GHz)
Memory Clock rate: 1500 Mhz
Memory Bus Width: 384-bit
L2 Cache Size: 786432 bytes
Maximum Texture Dimension Size (x,y,z) 1D=(65536), 2D=(65536, 65535), 3D=(2048, 2048, 2048)
Maximum Layered 1D Texture Size, (num) layers 1D=(16384), 2048 layers
Maximum Layered 2D Texture Size, (num) layers 2D=(16384, 16384), 2048 layers
Total amount of constant memory: 65536 bytes
Total amount of shared memory per block: 49152 bytes
Total number of registers available per block: 32768
Warp size: 32
Maximum number of threads per multiprocessor: 1536
Maximum number of threads per block: 1024
Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
Max dimension size of a grid size (x,y,z): (65535, 65535, 65535)
Maximum memory pitch: 2147483647 bytes
Texture alignment: 512 bytes
Concurrent copy and kernel execution: Yes with 2 copy engine(s)
Run time limit on kernels: No
Integrated GPU sharing Host Memory: No
Support host page-locked memory mapping: Yes
Alignment requirement for Surfaces: Yes
Device has ECC support: Enabled
Device supports Unified Addressing (UVA): Yes
我正在尝试在其上运行以下简单程序(将阵列复制到设备):
#包括
#包括
#定义N 252000
内部主(空){
int a[N];
国际开发署;
cudaSetDevice(0);
cudamaloc((void**)和dev_a,N*sizeof(int));
对于(long i=0;i祝贺您,您刚刚找到了堆栈大小的限制:
int a[N];
而是动态分配主机阵列:
int *a = (int *)malloc(N*sizeof(int));
这将从堆中进行分配。如果您继续搜索,您将发现许多类似这样的问题,这些问题解释了堆栈与堆的分配以及限制。祝贺您,您刚刚找到了堆栈大小的限制:
int a[N];
而是动态分配主机阵列:
int *a = (int *)malloc(N*sizeof(int));
这将从堆中进行分配。如果继续搜索,您将发现许多类似这样的问题,解释堆栈与堆的分配以及限制。谢谢Robert。这很有效。您知道为什么程序在cudaMemcpy
上崩溃吗?当我循环数组的每个元素并用1
是否已达到堆栈大小限制?我不清楚。损坏的堆栈可能会导致非常奇怪的程序行为。例如,实际分配int A[N]
可能不会损坏堆栈,即使它可能不受支持。然后您实际上会写入该分配中的每个位置,这确实会损坏堆栈,因为您的写入操作正在覆盖它不应该覆盖的数据。现在进一步编程活动(cudaMemcpy
-一种使用堆栈传递参数和返回地址的函数调用)现在正在一个堆栈损坏的程序中运行,坏事情发生了。但这只是猜测。谢谢Robert。这起作用了。你知道为什么程序在cudaMemcpy
崩溃吗?如果我循环数组的每个元素并用1
填充它,为什么它不会崩溃?我不知道现在正是。损坏的堆栈可能导致非常奇怪的程序行为。例如,实际分配inta[N]
可能不会损坏堆栈,即使它可能不受支持。然后您实际上会写入该分配中的每个位置,这确实会损坏堆栈,因为您的写入操作正在覆盖它不应该覆盖的数据。现在进一步编程活动(cudaMemcpy
——一种使用堆栈传递参数和返回地址的函数调用)现在在一个堆栈损坏的程序中运行,坏事情发生了。但这一切都只是猜测。