Memory 英伟达探查器为何不显示统一内存信息

Memory 英伟达探查器为何不显示统一内存信息,memory,cuda,profiling,nvidia,Memory,Cuda,Profiling,Nvidia,我有一个安装在Windows1064bit中的TitanXP,带有CUDA9.2和Nvidia驱动程序(398.82-desktop-win10-64bit-international-whql),我有一个使用统一内存的简单程序,如下所示 // CUDA kernel to add elements of two arrays __global__ void add(int n, float *x, float *y) { int index = blockIdx.x * blockDim.x

我有一个安装在Windows1064bit中的TitanXP,带有CUDA9.2和Nvidia驱动程序(398.82-desktop-win10-64bit-international-whql),我有一个使用统一内存的简单程序,如下所示

// CUDA kernel to add elements of two arrays
__global__
void add(int n, float *x, float *y)
{
int index = blockIdx.x * blockDim.x + threadIdx.x;
int stride = blockDim.x * gridDim.x;
for (int i = index; i < n; i += stride)
    y[i] = x[i] + y[i];
}

int main(void)
{
int N = 1 << 20;
float *x, *y;

// Allocate Unified Memory -- accessible from CPU or GPU
cudaMallocManaged(&x, N * sizeof(float));
cudaMallocManaged(&y, N * sizeof(float));

// initialize x and y arrays on the host
for (int i = 0; i < N; i++) {
    x[i] = 1.0f;
    y[i] = 2.0f;
}

// Launch kernel on 1M elements on the GPU
int blockSize = 256;
int numBlocks = (N + blockSize - 1) / blockSize;
add <<< numBlocks, blockSize >>>(N, x, y);

// Wait for GPU to finish before accessing on host
cudaDeviceSynchronize();

// Check for errors (all values should be 3.0f)
float maxError = 0.0f;
for (int i = 0; i < N; i++)
    maxError = fmax(maxError, fabs(y[i] - 3.0f));
std::cout << "Max error: " << maxError << std::endl;

// Free memory
cudaFree(x);
cudaFree(y);

return 0;
}
我很确定我只有一个GPU安装在计算机上,为什么我不能得到统一内存配置信息


顺便说一句,我在我的另一台机器上做了完全相同的实验,它有相同的软件环境和相同的GPU,分析器确实显示了统一的内存信息。那台电脑有什么问题吗?是否需要进行任何与硬件相关的配置/设置才能启用统一内存功能?

我过去曾遇到过这个问题,但在将驱动程序更新到最新版本(如果我没有弄错的话,将于2018年9月19日发布)后,问题解决了

希望它也能解决你的问题。
如果有,请告诉我

我过去曾遇到过这个问题,但在将驱动程序更新到最新版本(如果我没有弄错的话,将于2018年9月19日发布)后,问题解决了

希望它也能解决你的问题。
如果有,请告诉我

我安装了新的cuda sdk 10,现在运行正常。

我安装了新的cuda sdk 10,现在运行正常。

谢谢您的回答。一开始,我安装了最新的版本,它有这个问题,然后我尝试了一个旧版本,因为我在这里发布的问题仍然存在。谢谢你的回答。一开始,我安装了最新的版本,它有这个问题,然后我尝试了一个旧版本,因为我在这里发布的问题仍然存在。
"==852== Warning: Unified Memory Profiling is not supported on the
current configuration because a pair of devices without peer-to-peer
support is detected on this multi-GPU setup. When peer mappings are
not available, system falls back to using zero-copy memory. It can
cause kernels, which access unified memory, to run slower. More
details can be found at:
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#um-
managed-memory"