machine-learning - 用于分类和回归的递归特征消除的模型

标签 machine-learning scikit-learn regression classification feature-selection

我们可以使用哪些模型来进行分类回归递归特征消除

例如我们可以使用

selector = RFE(RandomForestClassifier(), 5)

用于分类 和

selector = RFE(RandomForestRegressor(), 5)

回归

  1. 还有哪些其他模型可用于 RFE
  2. 回归 RFE 模型能否用于分类,反之亦然(在某处阅读。仍然不确定它们如何适应)

最佳答案

关于问题 1,文档指出:

estimator : object

A supervised learning estimator with a fit method that provides information about feature importance either through a coef_ attribute or through a feature_importances_ attribute.

coef_通常与所有线性模型相关联(例如 sklearn.linear_modelsklearn.naive_bayesklearn.svm 等)。 feature_importances_与基于树的模型相关联:例如sklearn.tree.DecisionTreeClassifier , sklearn.ensemble.RandomForestClassifier

关于Q.2,我对此了解还不够。我的直觉是,您可以通过离散化问题来使用一些分类器来解决回归问题,但不确定这在实践中是否有帮助。我会让更有知识的人来回答这个问题。

关于machine-learning - 用于分类和回归的递归特征消除的模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59342197/

相关文章:

python - 变分自动编码器 (VAE) 显示不一致的输出

python - 如何使用 scikit-learn 中的散列技巧对二元语法进行矢量化?

machine-learning - GridSearch中的sklearn逻辑回归参数

python - 使用 StatsModels 绘制二阶多项式的分位数回归

python - numpy.ndarray 语法理解以进行确认

machine-learning - LDA作为分区之前或之后的降维

machine-learning - 当 k=4 时 KNN 选择类标签

python - 没有预测器的 Sklearn 回归

apache-spark - Spark AFTSurvivalRegression 参数

r - 从 leaps regsubsets 中获取所有模型