每个CUDA内核的最大指令数?每个CUDA流的最大操作数?

每个CUDA内核的最大指令数?每个CUDA流的最大操作数?,cuda,resources,gpgpu,Cuda,Resources,Gpgpu,对于特定CUDA流,是否存在可能挂起的最大CUDA操作数?我在任何文档中都没有看到这样的限制 我还对每个CUDA内核的最大指令数的相关数字感兴趣。每个内核的最大CUDA PTX指令数: 200万用于低于2.0的GPU(即费米微体系结构之前) 5.12亿用于计算能力为2.0或更高的GPU(如费米、开普勒、麦克斯韦等) 这些信息可以在中找到,只需查找“每个内核的最大指令数” 至于流,如果在给定流上运行的内核遵守此限制,则没有此类流指令限制。正如@Talonmes所指出的,流是主机端的操作队列,它

对于特定CUDA流,是否存在可能挂起的最大CUDA操作数?我在任何文档中都没有看到这样的限制


我还对每个CUDA内核的最大指令数的相关数字感兴趣。

每个内核的最大CUDA PTX指令数:

  • 200万用于低于2.0的GPU(即费米微体系结构之前)
  • 5.12亿用于计算能力为2.0或更高的GPU(如费米、开普勒、麦克斯韦等)
这些信息可以在中找到,只需查找“每个内核的最大指令数”


至于流,如果在给定流上运行的内核遵守此限制,则没有此类流指令限制。正如@Talonmes所指出的,流是主机端的操作队列,它们与将代码加载到GPU无关。

每个内核的CUDA指令最大数量为:CC前200万,CC后512万。好的,谢谢。我在哪里可以得到更多关于最大数量限制的详细信息?请原谅我进行了大量的编辑,只是答案值得一个实际要求它的问题…我认为指令数量的唯一限制就在那里,然后可以在给定的线程上按序运行多个内核。因此,只要遵守内核限制,流就没有限制。不,它实际上与流没有任何关系。指令限制是一次可以从一个模块加载多少代码,而不是其他。流是主机端的操作队列,它们与将代码加载到GPU无关,这些限制与流或流容量完全无关。的确!我在答案上增加了这种精确性。