Deep learning 有没有办法用cpu来估算gpu的计算时间?

Deep learning 有没有办法用cpu来估算gpu的计算时间?,deep-learning,gpu,cpu,gpgpu,cpu-speed,Deep Learning,Gpu,Cpu,Gpgpu,Cpu Speed,我做了一个简单的深度学习模型。我的桌面上现在只有cpu。 但我必须在gpu环境下估计模型的训练时间。 我不需要精确的训练时间估计。 大概时间对我来说没问题。 是否有任何方法或度量? 我的一个想法是比较GFLOP,但当我计算时,这也是毫无意义的 例如,cpu:intel e5-2686 v4,gpu:nvidia k80您可以使用一种非常简单的方法,通过近似数据集中的并行度来估计速度(例如,如果数据集的并行度高得离谱,则可能等于数据集中的维数),假设并发实现的最佳情况下实际传输数据的开销为零,那么

我做了一个简单的深度学习模型。我的桌面上现在只有cpu。 但我必须在gpu环境下估计模型的训练时间。 我不需要精确的训练时间估计。 大概时间对我来说没问题。 是否有任何方法或度量? 我的一个想法是比较GFLOP,但当我计算时,这也是毫无意义的


例如,cpu:intel e5-2686 v4,gpu:nvidia k80

您可以使用一种非常简单的方法,通过近似数据集中的并行度来估计速度(例如,如果数据集的并行度高得离谱,则可能等于数据集中的维数),假设并发实现的最佳情况下实际传输数据的开销为零,那么数学就变得简单了:

加速=#GPU上的物理工作项(通常为#中的CUDA内核) 典型nvidia实施)除以物理工作项的 在CPU上(物理内核的)


还有一些与不同的硬件体系结构(ISR、设计等)有关的未被考虑的差异。根据您对模型并行性、并发性实现和硬件的估计,这些类型的计算将与实际性能有很大差异。

简言之-不,这是不可能的。GPU不是“更快的CPU”,它们是不同的体系结构,可以将特定的操作速度提高20倍,而对其他操作则无能为力;内存复制实际上会使事情变得更慢。有一些经验法则,但没有“正确”的方法。