在考虑均值时,数字 1 和 2 背后的直觉是什么?这将如何影响性能和准确性?
第 1 号:
pca = decomposition.PCA(n_components=4)
X_centered = X - X.mean(axis=0)
pca.fit(X_centered)
X_pca = pca.transform(X_centered)
数字2:
pca = decomposition.PCA(n_components=4)
pca.fit(X)
X_pca = pca.transform(X)
提前致谢
最佳答案
将会是一样的。在某种程度上,PCA 找到一组基向量,这些基向量与每个基向量正交,并最大化投影到它们上的一组点的方差。因此PCA有rotation and translation symmetry 。因此,每当您将矩阵移动(这实际上是减去平均值的作用)时,您都会得到相同的 PCA 结果。
关于python - PCA——取均值之差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62146112/