Neural network 为什么在自组织映射中需要迭代次数?

Neural network 为什么在自组织映射中需要迭代次数?,neural-network,som,self-organizing-maps,Neural Network,Som,Self Organizing Maps,:) 当我为我的论文提案辩护时,我的一位教授问我为什么我们必须在SOM中指定迭代次数?他说,应该有一个趋同标准让我们停止训练 不过,据我所知,我们没有目标向量,因此无法将成本降至最低 我的问题是,第一,为什么需要进行MAX_迭代,第二,是什么确保我们选择的迭代次数会给出最佳映射:( 根据我的经验,我尝试在颜色数据集上使用1000次迭代和10000次迭代。似乎10000次迭代并不能提供比1000次更好的可视化效果。(因此,你和你的教授都是对的:你应该指定迭代次数的硬上限和收敛标准 收敛标准-虽然你

:)

当我为我的论文提案辩护时,我的一位教授问我为什么我们必须在SOM中指定迭代次数?他说,应该有一个趋同标准让我们停止训练

不过,据我所知,我们没有目标向量,因此无法将成本降至最低

我的问题是,第一,为什么需要进行MAX_迭代,第二,是什么确保我们选择的迭代次数会给出最佳映射:(


根据我的经验,我尝试在颜色数据集上使用1000次迭代和10000次迭代。似乎10000次迭代并不能提供比1000次更好的可视化效果。(

因此,你和你的教授都是对的:你应该指定迭代次数的硬上限和收敛标准

收敛标准-虽然你认为SOM是无监督的,因此没有目标向量,但它们仍然可以被视为最小化某些成本函数。一般来说,大多数无监督机器学习方法可以尝试并做一些事情,例如最小化未解释的方差,最大化SOM的信息增益等具体来说,我使用了权重增量作为标准。也就是说,当额外的迭代没有改变SOMs权重超过某个阈值时,停止迭代

迭代上限-即使存在收敛标准,如果SOM不收敛(您不希望它永远运行),也需要硬上限。如果您使用我的权重增量标准示例,则可能存在一种情况,即权重在迭代之间不断振荡,从而导致该标准永远无法满足


快乐SOM!

在SOM中,您确实隐含着一个要最小化的目标成本函数。SOM类似于多维缩放(MDS)。其目的是维护拓扑关系;因此,SOM的每次迭代实际上是最小化“源空间中任意两点的距离”和“目标空间中相同两点的距离”,除了在SOM中,这些相似点是用目标空间中的神经元表示的。这也是SOM可以用于聚类的方式


迭代过程可以被视为梯度下降。当最小化二次误差代价函数时,它也容易被局部极小值捕获。这也可以解释为什么SOM会导致“扭结”“即使经过大量迭代。

第一个问题很好!但是,将来您可能希望指定一些实现细节(例如,您使用的SOM库、语言、颜色数据集是什么)或者忽略未指定的参考。不完全如此。通常的SOM将始终收敛,并且始终需要精确的迭代次数。学习算法的学习率和学习半径参数随着每次迭代而越来越小,因此权重的变化将越来越小