r - 当只有预测网格的分辨率发生变化时,为什么预测多项式会发生巨大变化?

标签 r regression linear-regression lm polynomials

为什么我有完全相同的模型,但在不同的网格大小(0.001 vs 0.01)上运行预测得到不同的预测?

set.seed(0)
n_data=2000
x=runif(n_data)-0.5
y=0.1*sin(x*30)/x+runif(n_data)
plot(x,y)


poly_df=5
x_exp=as.data.frame(cbind(y,poly(x, poly_df)))
fit=lm(y~.,data=x_exp)

x_plt1=seq(-1,1,0.001)
x_plt_exp1=as.data.frame(poly(x_plt1,poly_df))
lines(x_plt1,predict(fit,x_plt_exp1),lwd=3,col=2)

x_plt2=seq(-1,1,0.01)
x_plt_exp2=as.data.frame(poly(x_plt2,poly_df))
lines(x_plt2,predict(fit,x_plt_exp2),lwd=3,col=3)

enter image description here

最佳答案

这是一个编码/编程问题,因为在我的快速运行中,通过将 poly() 放入模型公式,我无法通过适当的设置重现此问题。所以我认为这个问题更适合 Stack Overflow。

## quick test ##

set.seed(0)
x <- runif(2000) - 0.5
y <- 0.1 * sin(x * 30) / x + runif(2000)
plot(x,y)

x_exp <- data.frame(x, y)
fit <- lm(y ~ poly(x, 5), data = x_exp)

x1 <- seq(-1, 1, 0.001)
y1 <- predict(fit, newdata = list(x = x1))
lines(x1, y1, lwd = 5, col = 2)

x2 <- seq(-1, 1, 0.01)
y2 <- predict(fit, newdata = list(x = x2))
lines(x2, y2, lwd = 2, col = 3)

enter image description here


cuttlefish44 指出了您的实现中的错误。 在制作预测矩阵的时候,我们希望使用模型矩阵中的构造信息,而不是构造新的一组基。如果你想知道这样的“构造信息”是什么,也许你可以通过这个非常长答案:How poly() generates orthogonal polynomials? How to understand the “coefs” returned?

也许我可以尝试做一个简短的总结,然后绕过那个冗长而详细的答案。

  1. 正交多项式的构造总是从输入协变量值x的中心开始。如果这个中心不同,那么其余的一切都会不同。现在,这就是 poly(x, coef = NULL)poly(x, coef = some_coefficients) 之间的区别。前者将始终使用新的中心构造一组新的基,而后者将使用 some_coefficients 中现有的居中信息来预测给定设置的基值。这肯定是我们在进行预测时想要的。
  2. poly(x, coef = some_coefficients) 实际上会调用 predict.poly (我在那个长答案中解释了)。除非我们在做测试,否则我们需要自己设置 coef 参数的情况相对较少。如果我们使用我在上面的快速运行中介绍的方式设置线性模型,predict.lm 足够聪明,可以实现预测 poly 模型项的正确方法,即, 在内部它会为我们做 poly(new_x, coef = some_coefficients)
  3. 作为一个有趣的对比,普通多项式对此没有问题。例如,如果您在代码中的所有 poly() 调用中指定 raw = TRUE,则不会有任何问题。这是因为原始多项式没有构造信息;它只是获取 x1, 2, ... degree 的权力。

关于r - 当只有预测网格的分辨率发生变化时,为什么预测多项式会发生巨大变化?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40428029/

相关文章:

返回字符串中两个字符之间的值

r - 如何在 R 中重新排列具有数千行的列

r - 如何仅保留向量中每个字符串中的唯一单词

python - 在 BaggingRegressor 中使用 xgboost

R中的递归回归

machine-learning - 如何在分类中将多个输入建模为单个输出?

r - 在 R 中如何舍入为 1、1.5、2 等而不是 1、2 或 1.1、1.2、1.3?

r - 使用一次分割回归而不是循环从数百个回归中提取系数?

使用 lm() 与 t.test() 检验统计量的反转符号

python - 无法在Python中使用散点图正确绘制回归线