Cuda WMMA默认内核

Cuda WMMA默认内核,cuda,cublas,Cuda,Cublas,我在跑步。有关代码,请访问: 我从电话里知道密码 允许库尽可能使用Tensor Core操作 通过使用CUBLAS\u TENSOR\u OP\u MATH 在文档中,我发现CUBLAS\u DEFAULT\u MATH阻止库使用张量核心操作,但是示例代码没有使用 WMMA的默认设置是什么?它将在CUDA内核上执行,还是Tensor内核可能支持计算。只能使用(即在)Tensor内核硬件。它们不能在任何其他类型的硬件上执行。因此,在使用wmma指令编译CUDA设备代码时,必须针对具有Tensor核

我在跑步。有关代码,请访问: 我从电话里知道密码

允许库尽可能使用Tensor Core操作

通过使用
CUBLAS\u TENSOR\u OP\u MATH

在文档中,我发现
CUBLAS\u DEFAULT\u MATH
阻止库使用张量核心操作,但是示例代码没有使用

WMMA的默认设置是什么?它将在CUDA内核上执行,还是Tensor内核可能支持计算。

只能使用(即在)Tensor内核硬件。它们不能在任何其他类型的硬件上执行。因此,在使用wmma指令编译CUDA设备代码时,必须针对具有Tensor核心硬件的体系结构(目前为cc7.x)。此外,此类代码只能在cc7.x设备(当前)上正确运行

您引用的CUBLAS变量会影响CUBLAS API的使用。它们与您自己编写的wmma指令没有关联


在引擎盖下面,CUBLAS库有多个代码路径。您引用的CUBLAS变量可能会影响CUBLAS库可能做出的代码路径决策。其中一些代码路径可能使用wmma指令或等效的Tensor核心用法。其他代码路径可能执行相同的操作(在较高级别,例如矩阵乘法)不使用wmma指令。

--我真的不明白你在问什么/为什么我在问默认情况下矩阵乘法是使用CUDA还是使用张量核。换句话说,如果我既不使用CUBLAS\u default\u MATH,也不使用CUBLAS\u TENSOR\u OP\u MATH怎么办。是否将使用Tensor Core?wmma名称空间用于与tensorcore交互,因此
wmma_示例
将在所有情况下使用tensorcore完成。对于
cublasGemmEx
,默认情况下使用CUBLAS\u DEFAULT\u MATH,因此如果未设置CUBLAS\u TENSOR\u OP\u MATH,它将不会尝试使用tensorcore。除非为支持TENSOR core的GPU体系结构进行编译,否则无法使用wmma指令/内部函数(您将获得编译错误)。您不能使用任何设置禁用或修改此行为。不能使用wmma指令/内部函数在CUDA内核上执行任何操作。他们只在tensorcore上工作。CUBLAS_uuu设置影响CUBLAS调用,而不影响wmma指令/内部函数的使用。