Machine learning 激活模式对SOM有什么意义?

Machine learning 激活模式对SOM有什么意义?,machine-learning,statistics,neural-network,som,self-organizing-maps,Machine Learning,Statistics,Neural Network,Som,Self Organizing Maps,SOM-自组织映射,每个输入维映射到所有输出节点,节点相互竞争进行评分-矢量量化。PCA和其他聚类方法可视为该过程的简化特例 SOM中只有一个获胜节点。然而,当一个输入非常类似于两个已建立的“集群”时会发生什么?第一个神经元能以微弱优势战胜第二个神经元,而这两个神经元却相距甚远吗?如果是的话,这难道不是非常有用的信息吗 如果是这样,那么这意味着整个激活模式及其各种输出将有助于对输入进行分类 我问这个问题的原因是因为我正在考虑将SOM插入其他神经网络,然后可能再次插入SOM。当插入时,我想知道是否

SOM-自组织映射,每个输入维映射到所有输出节点,节点相互竞争进行评分-矢量量化。PCA和其他聚类方法可视为该过程的简化特例

SOM中只有一个获胜节点。然而,当一个输入非常类似于两个已建立的“集群”时会发生什么?第一个神经元能以微弱优势战胜第二个神经元,而这两个神经元却相距甚远吗?如果是的话,这难道不是非常有用的信息吗

如果是这样,那么这意味着整个激活模式及其各种输出将有助于对输入进行分类

我问这个问题的原因是因为我正在考虑将SOM插入其他神经网络,然后可能再次插入SOM。当插入时,我想知道是否可以安全地携带整个晶格及其所有输出,而不仅仅是获胜的节点


我试过检查SOM的数学,当训练时它只考虑获胜的神经元,但似乎没有任何迹象表明如果使用新的输入,只有获胜节点对操作员很重要。

训练结束时,算法的目标是使每个输入模式的第一个和第二个获胜节点位于晶格中的相邻位置。这称为输入数据空间的拓扑保持。逆情况被视为不良训练,并根据拓扑误差进行计算。该误差的一个简单度量是第一个和第二个获胜节点不相邻的输入向量的比率

搜索SOM和拓扑保持。 这是一本书


请记住,较小的贴图通常会产生较小的拓扑错误,但在较大的贴图倾向于扭转这种情况时,量化错误会增加。因此,在拓扑保持和量化精度之间存在着权衡。这没有黄金法则。它始终取决于域、应用程序和预期结果。

感谢您的论文。是的,我知道BMU必须是相邻的。但总体问题没有得到回答,我想,激活强度的总体模式没有意义吗?BMU是否以第一个BMU为中心平均分布?