machine-learning - 回归问题的降维/降噪技术

标签 machine-learning scikit-learn regression

回归问题中的降维技术有哪些?我尝试过我所知道的唯一无监督技术,PCA 和 Kernel PCA(使用 scikit learn 库),但我还没有看到使用这些技术有任何改进。也许这些只适合分类问题?我还可以尝试哪些其他技巧?最好是在 sklearn 中实现的。

最佳答案

这是一个非常普遍的问题,技术(或它们的组合)的适用性实际上取决于您的问题细节。

一般来说,降维有几种类别(除了您提到的那些之外。

  1. 也许最简单的降维形式是仅使用某些特征,在这种情况下,我们真正讨论的是特征选择(请参阅 sklearn's module )。

  2. 另一种方法是集群 ( sklearn's ),并用其组件的聚合来替换每个集群。

  3. 最后,一些回归器使用 l1 惩罚和凸优化的属性来同时选择特征子集;在 sklearn 中,请参阅 the lasso and elastic net .

这又是一个非常广泛的问题。甚至还有关于特征选择的整本书和竞赛,这是降维的一个子集。

关于machine-learning - 回归问题的降维/降噪技术,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38857281/

相关文章:

python - 使用 Tensorflow 进行在线学习

gcc - 树莓派上的 scikit-learn/python3

arrays - 具有变量转换的多元回归自动化

r - 具有指定斜率的线性回归

python - Python 中的加权逻辑回归

machine-learning - 构建决策树时没有剩余示例的情况

python - ValueError : could not broadcast input array from shape (128, 128,3) 变为形状 (128,128)

machine-learning - 没有为任何变量提供梯度

python - 使用 SKlearn 进行多标签分类 - 如何使用验证集?

machine-learning - Tensorflow和Scikitlearn log_loss函数实现的区别