机器学习新手,请耐心等待,谢谢!
我有三个问题要问,因此如果您在回答时提及问题编号将会很有帮助。
所以我想在应用机器学习算法之前对我的训练数据进行特征选择。我将使用相同的数据集在许多不同的机器学习算法上运行来决定什么是最好的,因此如果我可以只进行一次特征选择并将新的数据集传递给各种算法,那么效率会更高。
注意:我正在使用 Python3 进行编码,并且将使用 BorutaPy 进行功能选择。 [https://github.com/scikit-learn-contrib/boruta_py]
问题1)
在执行特征选择之前我需要知道我正在使用什么算法吗?或者我可以只执行我的特征选择,然后使用任何算法,即;特征选择取决于所使用的算法类型吗?
问题2)
我可以对回归和分类问题执行相同的特征选择吗?
问题3)
除了上面提到的一切,最好对回归问题使用正则化并对分类问题进行特征选择?
谢谢!
最佳答案
我将回答您的问题 1 和 2,将问题 3 留给其他人。我将使用 R 来做一些例子。我知道您正在使用 python,但您问题的答案并不取决于实现。我希望你能将它们翻译成Python,或者只是看看数学,看看发生了什么。
问题 1:特征选择取决于所使用的算法。
首先,一些数据。
set.seed(1234)
y = runif(1000)
x1 = (1-y)^(1/6)
x2 = y + rnorm(1000, 0, 0.1)
这里,y 恰好是 1 - x1⁶ 且 y=x2,并添加了一些噪声。这是一个可以帮助您了解这一点的图。
我们想要根据 x1 或 x2 预测 y。哪一个更好?首先我们使用线性模型。
LM1 = lm(y ~ x1)
LM2 = lm(y ~ x2)
summary(LM1)$r.squared
[1] 0.8454181
summary(LM2)$r.squared
[1] 0.9022076
使用 x2 预测 y 的模型具有更好的 R²,因此 x2 优于 x1。
现在让我们使用 kNN 回归(k=1)。
library(FNN)
NN1 = knn.reg(train=x1, y=y)
NN1$R2Pred
[1] 0.9999928
NN2 = knn.reg(train=x2, y=y)
NN2$R2Pred
[1] 0.8728359
使用 x1 的模型具有更好的 R²,几乎完美。 最佳变量取决于算法。
问题2:回归和分类可能需要不同的特征。
这要简单得多。如果您正在进行回归,您将预测一个数值量。如果您正在进行分类,您正在预测一个分类变量 - 因此这里的任何比较都是关于预测不同的 y 值。当然,也可以使x1与y1相关但与y2不相关,以及使x2与y2相关但与y1不相关。
一个简单的例子是:
x1 = runif(1000)
x2 = runif(1000)
y1 = x1
y2 = ifelse(x2<0.5, 1, 2)
y1 等于 x1,因此 x1 是 y1 的完美预测变量。但 x2 是随机的,与 y1 没有关系,因此对 y1 的预测效果相当差。相比之下,如果 x2<0.5,则 y2 为 1,否则为 2。 x2 是 y2 的完美预测因子。但 x1 是随机的,与 y2 没有关系,因此对 y2 的预测效果很差。
更一般地说,最好的预测因子显然取决于您想要预测的内容。如果您要预测两个不同的变量,则没有理由认为同一预测变量集合应该最适合这两个变量。
我希望这会有所帮助。
关于python-3.x - 回归与分类的特征选择,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49031431/