当我将 csv 文件加载到 R Studio 中时,我遇到了一个非常奇怪的情况。当我尝试加载包含约 190k 记录的文件时,我的数据框中仅显示约 8k 记录。
我尝试将数据加载到 Mac 上的 R Studio 中,一切正常。我用谷歌搜索了这个问题,但找不到解决方案。
以下是两台机器的规范:
PC - R + R Studio: latest version -
RAM: 8GB
MAC - R + R Studio: latest version -
RAM: 16GB
我还尝试了各种解决方案,例如 (quote = "") 但这并没有解决截断问题。也许我错过了一些非常简单的事情。有任何想法吗?
最佳答案
尝试使用fread
函数,它可以比read.csv更快地读取大数据。
在我的带有 R + Rstudio 的机器中,我可以在 4G RAM 下读取大约 3G csv 数据。
例如:
library("data.table")
data <- fread("ab.csv", header=TRUE, sep=",", colClasses = "numeric")
顺便说一句,通过以下命令找出内存限制并扩展 R 的最大数量:
memory.limit()
# set max memory usage is 2G
memory.size(max=2000)
关于r - 在 R Studio 中从 csv 加载的行数有限,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32640951/