r - 比较回归系数时如何解释linearHypothesis函数的结果?

标签 r regression

我使用了 linearHypothesis 函数来检验两个回归系数是否显着不同。您知道如何解释这些结果吗?

这是我的输出:

linearHypothesis(fit4.beta, "bfi2.e = bfi2.a")
Linear hypothesis test

Hypothesis:
bfi2.e - bfi2.a = 0

**Model 1:** restricted model<br />
**Model 2:** `mod.ipip.hexaco ~ bfi2.e + bfi2.n + bfi2.a + bfi2.o + bfi2.c`

    Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
    1    722 302.27                                  
    2    721 264.06  1    38.214 104.34 < 2.2e-16 ***
    ---
    Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

最佳答案

除了 t 统计,它测试每个变量的预测能力 所有其他人的存在,可以使用的另一个测试是 F 测试。 (这是您将在线性模型底部获得的 F 检验)

这检验了所有 β 都等于零的零假设 允许他们取任何值的替代方案。如果我们拒绝这个零假设 (我们这样做是因为 p 值很小),那么这和那里说的一样 是否有足够的证据得出至少一个协变量具有预测性的结论 我们的线性模型的力量,即使用回归比预测“更好” 只是猜测平均值。

因此,基本上,您是在检验所有系数是否不同于零或某个其他任意线性假设,而不是在检验单个系数的 t 检验。

关于r - 比较回归系数时如何解释linearHypothesis函数的结果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54611507/

相关文章:

r - 在不访问原始数据框的情况下找出回归模型中的变量类别

python - 使用 Python 进行具有固定效应的面板数据回归

R 包 : description, 选择性导入和命名空间

r - R中的非线性曲线拟合

r - 如何选择函数并将其应用于数据框列表中的多列

python - 如何知道使用 Scikit-learn 构建的树的大小(节点数)?

machine-learning - 使用正态方程方法进行多元回归分析中的特征缩放(归一化)?

r - 如何处理完美拟合线性模型

r - 在 data.table 中添加带有条件的虚拟对象?

rstudent() 为 "mlm"返回不正确的结果(装有多个 LHS 的线性模型)