machine-learning - PCA 的输出是什么以及它有何用处?

标签 machine-learning pca eigenvector dimensionality-reduction data-presentation

PCA 是一种降维算法,有助于降低数据的维度。 我不明白的是,PCA 按降序给出特征向量的输出,例如 PC1、PC2、PC3 等。所以这将成为我们数据的新轴。

  • 我们可以在哪里应用这个新轴来预测测试集数据?

  • 我们实现了从 n 到 n-k 的降维。

  • 如何从数据中获取最有用的变量并消除数据中不重要的列?
  • PCA 是否有替代方法?

最佳答案

PCA 的思想是将维度减少到由具有最大方差的 n-k 个特征向量创建的子空间,从而导致映射到新子空间的数据中的最大方差。

此外,可以在不知道训练数据类别的情况下使用 PCA 来降低维度,这意味着它是无监督的。

如果您知道训练数据的类别,另一种选择是使用 LDA,它会尝试找到最大化类别间变异的特征空间。

希望这有帮助

关于machine-learning - PCA 的输出是什么以及它有何用处?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47048399/

相关文章:

r - 在主成分分析(PCA)图中添加椭圆

python - Orange PCA 和 scikit-learn PCA 的结果不同

C++:如何根据复数 vector 的实部对复数矩阵进行排序

c++ - 与不完整的 cholesky 预处理器共轭梯度会返回 Eigen 库的意外错误

cuda - 如何在 GPU 上计算 k 个最大特征值?

scala - xgboost Scala API `predictContrib` 是什么?

machine-learning - 为什么要对卷积神经网络进行预训练

python - 值错误 : Unknown label type in scikit-learn

r - 优化循环

r - R中的多线性主成分