Deep learning 为什么转换成im2col很快?

Deep learning 为什么转换成im2col很快?,deep-learning,conv-neural-network,caffe,Deep Learning,Conv Neural Network,Caffe,原始输入激活通过im2col进行内核转换,以改进内存访问模式。但是,当我们将原始矩阵转换为im2col矩阵时,我们也在访问相同的原始内存模式。那么,为什么im2col运算本身并不慢呢?im2col的主要原因是,输入和核可以表示为两个大矩阵,卷积可以在单个矩阵乘法中完成。这加快了过程,因为矩阵乘法可以 并行性非常好 只是内存访问不是问题,正如你所说,im2col必须像简单的卷积运算一样访问原始张量

原始输入激活通过im2col进行内核转换,以改进内存访问模式。但是,当我们将原始矩阵转换为im2col矩阵时,我们也在访问相同的原始内存模式。那么,为什么im2col运算本身并不慢呢?

im2col的主要原因是,输入和核可以表示为两个大矩阵,卷积可以在单个矩阵乘法中完成。这加快了过程,因为矩阵乘法可以 并行性非常好

只是内存访问不是问题,正如你所说,im2col必须像简单的卷积运算一样访问原始张量