Machine learning 用meanshift对图像块进行泛化?

Machine learning 用meanshift对图像块进行泛化?,machine-learning,neural-network,deep-learning,conv-neural-network,Machine Learning,Neural Network,Deep Learning,Conv Neural Network,我正在读这篇文章,试图理解作者第一个问题的答案- 为什么是非线性激活 在所有中间层的过滤器输出端,功能是否至关重要 到目前为止,他的解释似乎还可以理解- 我们可以进一步将RECS模型推广到一个平移的单位球 其中μ是x的平均值 我不明白为什么这被认为是一种“概括”,但本文继续解释为什么会这样做 对于视觉问题,x的元素xn,n=1…n表示n个像素 输入图像的值,μ是所有像素的平均值。如果输入 是一个完整的图像,其平均值是对图像没有影响的全局平均值 理解力 可以在处理之前将其删除。因此,我们将μ设为

我正在读这篇文章,试图理解作者第一个问题的答案-

为什么是非线性激活 在所有中间层的过滤器输出端,功能是否至关重要

到目前为止,他的解释似乎还可以理解-

我们可以进一步将RECS模型推广到一个平移的单位球

其中μ是x的平均值

我不明白为什么这被认为是一种“概括”,但本文继续解释为什么会这样做

对于视觉问题,x的元素xn,n=1…n表示n个像素 输入图像的值,μ是所有像素的平均值。如果输入 是一个完整的图像,其平均值是对图像没有影响的全局平均值 理解力

可以在处理之前将其删除。因此,我们将μ设为0

然而,如果输入图像很大,我们通常会将其划分为较小的面片,并并行处理所有面片。在这种情况下,每个面片的平均值是局部平均值。不应移除,因为局部方法的集成提供了完整图像的粗略视图。这对应于等式(5)中的一般情况

我完全理解试图用它们的平均值来表示小补丁

信号/向量的均值偏移是否被视为一种泛化? 如果是这样的话,有人能给我指出证实这一说法的理论吗?我自己似乎找不到合适的链接

或者它只是用来说明作者的例子和后来的解释


还是我遗漏了一些明显的东西?

你们听说过概率分布的标准化(或一般特征)吗?移动其平均值,使其类似于高斯(正态)分布。看一看报纸和报纸