python - R 中的 numpy.memmap (Python) 等效吗?

标签 python r memory

我正在处理一个大型二进制数据文件(>10GB),使用 readBin 读取大约需要 10 分钟,但后来我在尝试将其强制为矩阵时陷入困境,大概是因为我的机器内存不足。当我使用 python 时,我会在这种情况下使用 numpy.mmemap 来减少内存占用; R 有等效的吗?

最佳答案

也许这可以帮助你:

library(ff)
library(biglm)
data <- ffm("binarydata")

您也可以仅选择其中的一部分,从而节省内存:

data <- ffm("binarydata", c("col1", "clo2", "col3"))

关于python - R 中的 numpy.memmap (Python) 等效吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31327801/

相关文章:

c++ - C++中不同派生类的高效容器

r - Highcharter R 堆积条形图中的多个系列

windows - Windows x64 的 44 位虚拟内存地址限制背后

python - 当 '?' 不起作用时,如何在 sqlite3 语句中为列名和表名使用占位符?

python - Boto3 CloudFormation 状态

r - 将位置索引添加到列表

r - R统计中的简单数据透视表类型转换

c - 同一内存位置上的结构和数组声明

python - 具有多重继承的Django自定义字段

python - Django : python manage. py runserver(多个错误)