当在训练集上应用 PCA 技术时,我们找到一个系数矩阵 A,它是主成分。因此,当我们在训练阶段时,我们找到这个原理并将其投影到数据上。我的问题是我们是否应用相同的原则或者我们为测试阶段的数据找到新的原则?
我认为在这样的答案中:如果我们用它来降维,我们必须找到新的原理。但如果我们用它来进行特征提取(比如脑电图数据的特征提取),我们就必须使用旧的(用于训练阶段的数据)我的想法有多少是正确的?
BS:我不是同时提问和回答问题,而是说出我的想法,指出误解的地方,并听取专家的意见
最佳答案
PCA 是特征向量变换之一。目标是降低维度。它有点合并了相关的特征。如果您有诸如重量和尺寸之类的特征,并且大多数物体当某物很重时它也很大。它将这些功能替换为一个weight_and_size。它可以降低噪音,也可以使均衡器变得更高效。神经网络更小。
它使网络能够在更短的时间内解决问题(减少网络的规模)。它还应该提高泛化能力。
因此,如果您使用 PCA 压缩的特征向量训练网络,则还必须使用转换后的数据对其进行测试。很简单,因为它只有与压缩特征向量一样多的输入。您还必须使用完全相同的转换。如果网络得知第一个输入是“weight_and_size”,则无法将 e.q 的值放入“weight_and_size”中。 温暖且多彩并期待良好的结果。
关于machine-learning - 机器学习中的PCA,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28784591/