我正在处理一个大型二进制数据文件(>10GB),使用 readBin 读取大约需要 10 分钟,但后来我在尝试将其强制为矩阵时陷入困境,大概是因为我的机器内存不足。当我使用 python 时,我会在这种情况下使用 numpy.mmemap 来减少内存占用; R 有等效的吗?
最佳答案
也许这可以帮助你:
library(ff)
library(biglm)
data <- ffm("binarydata")
您也可以仅选择其中的一部分,从而节省内存:
data <- ffm("binarydata", c("col1", "clo2", "col3"))
关于python - R 中的 numpy.memmap (Python) 等效吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31327801/