我使用了 linearHypothesis
函数来检验两个回归系数是否显着不同。您知道如何解释这些结果吗?
这是我的输出:
linearHypothesis(fit4.beta, "bfi2.e = bfi2.a")
Linear hypothesis test
Hypothesis:
bfi2.e - bfi2.a = 0
**Model 1:** restricted model<br />
**Model 2:** `mod.ipip.hexaco ~ bfi2.e + bfi2.n + bfi2.a + bfi2.o + bfi2.c`
Res.Df RSS Df Sum of Sq F Pr(>F)
1 722 302.27
2 721 264.06 1 38.214 104.34 < 2.2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
最佳答案
除了 t 统计,它测试每个变量的预测能力 所有其他人的存在,可以使用的另一个测试是 F 测试。 (这是您将在线性模型底部获得的 F 检验)
这检验了所有 β 都等于零的零假设 允许他们取任何值的替代方案。如果我们拒绝这个零假设 (我们这样做是因为 p 值很小),那么这和那里说的一样 是否有足够的证据得出至少一个协变量具有预测性的结论 我们的线性模型的力量,即使用回归比预测“更好” 只是猜测平均值。
因此,基本上,您是在检验所有系数是否不同于零或某个其他任意线性假设,而不是在检验单个系数的 t 检验。
关于r - 比较回归系数时如何解释linearHypothesis函数的结果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54611507/