machine-learning - 机器学习中的PCA

标签 machine-learning artificial-intelligence pca

当在训练集上应用 PCA 技术时,我们找到一个系数矩阵 A,它是主成分。因此,当我们在训练阶段时,我们找到这个原理并将其投影到数据上。我的问题是我们是否应用相同的原则或者我们为测试阶段的数据找到新的原则?

我认为在这样的答案中:如果我们用它来降维,我们必须找到新的原理。但如果我们用它来进行特征提取(比如脑电图数据的特征提取),我们就必须使用旧的(用于训练阶段的数据)我的想法有多少是正确的?

BS:我不是同时提问和回答问题,而是说出我的想法,指出误解的地方,并听取专家的意见

最佳答案

PCA 是特征向量变换之一。目标是降低维度。它有点合并了相关的特征。如果您有诸如重量尺寸之类的特征,并且大多数物体当某物很重时它也很大。它将这些功能替换为一个weight_and_size。它可以降低噪音,也可以使均衡器变得更高效。神经网络更小。

它使网络能够在更短的时间内解决问题(减少网络的规模)。它还应该提高泛化能力。

因此,如果您使用 PCA 压缩的特征向量训练网络,则还必须使用转换后的数据对其进行测试。很简单,因为它只有与压缩特征向量一样多的输入。您还必须使用完全相同的转换。如果网络得知第一个输入是“weight_and_size”,则无法将 e.q 的值放入“weight_and_size”中。 温暖且多彩并期待良好的结果。

关于machine-learning - 机器学习中的PCA,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28784591/

相关文章:

python - SciKit Gradient Boosting - 如何将预测与初始表结合起来?

javascript - 火箭在突变后不会改变方向

python - 对数据框中的列中的数据进行分类

artificial-intelligence - OpenAI函数调用错误----openai.error.InvalidRequestError : <exception str() failed>

opencv - OpenCV 的增量奇异值分解

apache-spark - Pyspark 和 PCA : How can I extract the eigenvectors of this PCA? 如何计算它们解释的方差?

Python scikit 学习 pca.explained_variance_ratio_cutoff

apache-spark - 如何在 Spark-MLlib PMML 文件中用精确的列名替换 DataField 值?

machine-learning - 查找两个短句子或文章之间语义相似性的最新方法(在概念级别)

C++ 机器学习框架