Kernel 卷积和相关的区别

Kernel 卷积和相关的区别,kernel,correlation,convolution,Kernel,Correlation,Convolution,在我们大学的讲座中,我们得到了与维数为n的核K相关的以下定义: K(i,j)*i(x+i,y+j)之和,其中i,j从-n到n 卷积定义如下: K(i,j)*i(x-i,y-j)之和,其中i,j从-n到n 但是,看看动画: 它们进行卷积的方式是如何定义相关性 这是怎么回事?讲座上给出的定义是错误的吗?这个定义绝对正确 这里需要注意的重要一点是,只有当滤波器I对称时,相关和卷积才是相同的 我咨询了教授。结果证明维基百科上的动画是错误的。尽管由于对称性,结果是一样的。谢谢你的回答。但是wikipeda

在我们大学的讲座中,我们得到了与维数为n的核K相关的以下定义:

K(i,j)*i(x+i,y+j)之和,其中i,j从-n到n

卷积定义如下:

K(i,j)*i(x-i,y-j)之和,其中i,j从-n到n

但是,看看动画:

它们进行卷积的方式是如何定义相关性


这是怎么回事?讲座上给出的定义是错误的吗?

这个定义绝对正确


这里需要注意的重要一点是,只有当滤波器
I
对称时,相关和卷积才是相同的

我咨询了教授。结果证明维基百科上的动画是错误的。尽管由于对称性,结果是一样的。

谢谢你的回答。但是wikipeda中的动画制作方式对于关联而不是卷积来说是正确的?我的意思是,结果最终是一样的,但它们突出显示内核值的方式应该是相反的。你证明维基动画是错误的。也请推荐wiki社区。