r - 为什么 `speedglm`比 `glm`慢?

原文 标签 r performance regression glm speedglm

我正在尝试使用speedglm来实现比glm更快的GLM估算,但是为什么它甚至更慢?

set.seed(0)
n=1e3
p=1e3
x=matrix(runif(n*p),nrow=n)
y=sample(0:1,n,replace = T)

ptm <- proc.time()
fit=glm(y~x,family=binomial())
print(proc.time() - ptm)
#   user  system elapsed 
#  10.71    0.07   10.78 

library(speedglm)
ptm <- proc.time()
fit=speedglm(y~x,family=binomial())
print(proc.time() - ptm)
#   user  system elapsed 
#  15.11    0.12   15.25 

最佳答案

speedglm优于glm的效率是将n * p模型矩阵简化为p * p矩阵的方式。但是,如果您有n = p,则没有有效的减少方法。您真正要检查的是n >> p大小写。

在Fisher计分的每次迭代中,从计算复杂性上获得更多洞察力。

glm矩阵使用QR分解的n * p需使用2np^2 - (2/3)p^3 FLOP,而speedglm形成n * p矩阵的叉积的叉积,然后对p * p矩阵进行QR分解,则涉及np^2 + (4/3)p^3 FLOP。因此,与n >> p一样,speedglm仅具有glm的计算量的一半。此外,speedglm使用的分块,缓存策略可以更好地利用计算机硬件,从而提高性能。

如果您有n = p,您会立即看到glm占用了(4/3)p^3 FLOP,但是speedglm占用了p^3 + (4/3)p^3 FLOP,更昂贵了!实际上,在这种情况下,矩阵叉积变成了剪切开销!

关于r - 为什么 `speedglm`比 `glm`慢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44207949/

相关文章:

java - 谷歌应用引擎花费太多时间从端点 android 给出响应

c# - 使用分组依据的LINQ性能优化

sas - 对所有其他变量回归一个变量

r - 为什么我的包 "serialized"中的数据在最新版本的 R 中未被读取?

r - 当运行 knit 到 .Rmd 输出时, block 无效

r - igraph 中的地理布局

r - 单变量异常值检测

r - 如何计算十分位数的优势比和 95% 置信区间

WPF ICollectionView 过滤

python - Python:在Keras上进行训练和预测回归