r - 直线和水平线在断点处连接的分段回归

标签 r regression linear-regression lm piecewise

我想用一个断点进行分段线性回归,其中回归线的第二半slope = 0。有如何进行分段线性回归的示例,例如 here 。我遇到的问题是我不清楚如何将模型一半的斜率修复为 0。

我试过了

lhs <- function(x) ifelse(x < k, k-x, 0)
rhs <- function(x) ifelse(x < k, 0, x-k)
fit <- lm(y ~ lhs(x) + rhs(x)) 

其中k是断点,但右侧的线段不是平面/水平线段。

我想将第二段的斜率限制为 0。我尝试过:

fit <- lm(y ~ x * (x < k) + x * (x > k))

但同样,我不确定如何让后半部分的斜率为零。

非常感谢任何帮助。

<小时/>

我自己的解决方案

由于下面的评论,我有了一个解决方案。这是我用来优化然后绘制拟合的代码:

x <- c(1, 2, 3, 1, 2, 1, 6, 1, 2, 3, 2, 1, 4, 3, 1)
y <- c(0.041754212, 0.083491254, 0.193129615, 0.104249201, 0.17280516, 
0.154342335, 0.303370501, 0.025503008, 0.123934121, 0.191486527, 
0.183958737, 0.156707866, 0.31019215, 0.281890206, 0.25414608)

range_x <- max(x) - min(x)
intervals <- 1000
coef1 <- c()
coef2 <- c()
r2 <- c()

for (i in 1:intervals) {
  k <- min(x) + (i-1) * (range_x / intervals)     
  x2 = (x - k) * (x < k)
  fit <- lm(y ~ x2)
  coef1[i] <- summary(fit)$coef[1]
  coef2[i] <- summary(fit)$coef[2]
  r2[i] <- summary(fit)$r.squared
  }

best_r2 <- max(r2)   # get best r squared
pos <- which.max(r2)                                          
best_k <- min(x) + (pos - 1) * (range_x / intervals)

plot(x, y) 
curve(coef1[pos] - best_k * coef2[pos] + coef2[pos] * x,
      from=min(x), to=best_k, add = TRUE)
segments(best_k, coef1[pos], max(x), coef1[pos])

my solution

最佳答案

Stack Overflow 上有一个非常相似的线程:Piecewise regression with a quadratic polynomial and a straight line joining smoothly at a break point 。唯一的区别是我们现在考虑:

parametrization

事实证明my answer中定义的函数estchoose.cpred根本不需要改变;我们只需要修改 getX 即可返回分段回归的设计矩阵:

getX <- function (x, c) cbind("beta0" = 1, "beta1" = pmin(x - c, 0))

现在,我们按照toy example中的代码进行操作使模型适合您的数据:

x <- c(1, 2, 3, 1, 2, 1, 6, 1, 2, 3, 2, 1, 4, 3, 1)
y <- c(0.041754212, 0.083491254, 0.193129615, 0.104249201, 0.17280516, 
0.154342335, 0.303370501, 0.025503008, 0.123934121, 0.191486527, 
0.183958737, 0.156707866, 0.31019215, 0.281890206, 0.25414608)

x 范围从 1 到 6,所以我们考虑

c.grid <- seq(1.1, 5.9, 0.05)
fit <- choose.c(x, y, c.grid)
fit$c
# 4.5

choose c by minimizing RSS

最后我们制作预测图:

x.new <- seq(1, 6, by = 0.1)
p <- pred(fit, x.new)
plot(x, y, ylim = c(0, 0.4))
matlines(x.new, p[,-2], col = c(1,2,2), lty = c(1,2,2), lwd = 2)

prediction plot

我们在拟合模型中有丰富的信息:

str(fit)
#List of 12
# $ coefficients : num [1:2] 0.304 0.055
# $ residuals    : num [1:15] -0.06981 -0.08307 -0.02844 -0.00731 0.00624 ...
# $ fitted.values: num [1:15] 0.112 0.167 0.222 0.112 0.167 ...
# $ R            : num [1:2, 1:2] -3.873 0.258 9.295 -4.37
# $ sig2         : num 0.00401
# $ coef.table   : num [1:2, 1:4] 0.3041 0.055 0.0384 0.0145 7.917 ...
#  ..- attr(*, "dimnames")=List of 2
#  .. ..$ : chr [1:2] "beta0" "beta1"
#  .. ..$ : chr [1:4] "Estimate" "Std. Error" "t value" "Pr(>|t|)"
# $ aic          : num -34.2
# $ bic          : num -39.5
# $ c            : num 4.5
# $ RSS          : num 0.0521
# $ r.squared    : num 0.526
# $ adj.r.squared: num 0.49

例如,我们可以检查系数汇总表:

fit$coef.table
#        Estimate Std. Error  t value     Pr(>|t|)
#beta0 0.30406634 0.03840657 7.917039 2.506043e-06
#beta1 0.05500095 0.01448188 3.797915 2.216095e-03

关于r - 直线和水平线在断点处连接的分段回归,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30060278/

相关文章:

r - 文本未出现在 XTS 图上

python - 如何找到多项式的最佳次数?

java - 使用 Java 中的 Apache Maths 进行时间序列的简单回归

matplotlib - 使用 matplotlib 绘制 scikit learn 线性回归结果

python-3.x - 将回归线方程和 R 方添加到 PLOTNINE

r - 改变heatmap.2图的布局

r - 使用 ggplot 和 coord_polar 绘制螺旋条形图 (Condegram)

r - R 中基于另一列的组合

r - 协方差矩阵 lm 对象 R

java - 如何在没有 labelmaps.txt 文件的情况下使用 Tensorflow lite 检测对象地标?