machine-learning - 激活模式对于 SOM 有何意义?

标签 machine-learning statistics neural-network som self-organizing-maps

SOM - 自组织映射,每个输入维度映射到所有输出节点,节点相互竞争评分 - 矢量量化。 PCA 和其他聚类方法可以看作是该过程的简化特例。

SOM 中只有一个获胜节点。然而,当输入与两个已建立的“集群”非常相似时会发生什么?有没有可能第一个神经元以微弱优势战胜第二个神经元,但两者却相距甚远?如果是这样,这不也是非常有用的信息吗?

如果是这样,则意味着整个激活模式及其所有各种输出将有助于对输入进行分类。

我问这个问题的原因是因为我正在考虑将 SOM 插入其他神经网络,然后可能再次插入 SOM。当插入时,我想知道仅继承整个晶格及其所有输出而不是仅获胜节点是否安全。

我尝试检查 SOM 的数学,在训练时它只考虑获胜神经元,但似乎没有任何迹象表明如果使用新输入,则只有获胜节点对运算符(operator)来说很重要。

最佳答案

训练结束时算法的目标是使每个输入模式的第一个和第二个获胜节点位于网格中的相邻位置。这称为输入数据空间的拓扑保留。相反的情况被认为是不好的训练,并通过拓扑误差来计算。衡量此误差的一个简单方法是第一和第二获胜节点不相邻的输入向量的比率。

搜索 SOM 和拓扑保存。 这是quick link

请记住,小 map 通常会产生较小的拓扑误差,但会增加量化误差,而较大的 map 往往会反转这种情况。因此,拓扑保持和量化精度之间存在权衡。这没有黄金法则。它始终取决于领域、应用程序和预期结果。

关于machine-learning - 激活模式对于 SOM 有何意义?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29265483/

相关文章:

html - 是否有关于实际打印网页的人数的分析?

python - `scipy.stats.binned_statistic` 分箱值的标准差

r - lm() 或 gls() 的正系数

python - 如何在 TensorFlow 的 MNIST 示例中获取预测的类标签?

machine-learning - 为什么 Octave 输出 $ g = [... ...] $

python - 在 Yarn 上运行 Spark 官方 python 机器学习示例失败

java - 神经网络应该学习多少个 epoch? (包括测试结果)

python - 如何在同一 prototxt 中生成用于训练和测试的数据层(HDF5)?

python - 如何在 Keras 中正确设置 RNN 以进行序列到序列建模?

python - 我应该为作者预测挖掘哪些算法/概念