large-files - 如何处理大文本文件?

标签 large-files

我有一个文件,其中包含大约 1000 万行,大小约为 400mb,我的系统无法处理它。当我尝试使用 gedit 打开文件时,它就卡住了。有没有办法处理这么大的数据文件。

最佳答案

Google Refine Tool 是一个基于网络的强大实用程序,可以处理大文件。

您可以找到https://code.google.com/p/google-refine/wiki/FaqAllocateMoreMemory [内存分配详情]

关于large-files - 如何处理大文本文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3962169/

相关文章:

php - 在 php 中解析非常大的 XML 文件

c# - 在 C# 中读取和解析 Json 文件

unix - 在世界范围内同步大量数据的最佳方法是什么?

c++ - 提高文件读取性能(单个文件、C++、Windows)

xml - 获取 Notepad++ XML 解析错误 "Extra content at the end of the document",即使没有

c - 为什么我的程序不能将大量 (>2GB) 保存到文件中?

sql-server - SSIS 使用太多内存将大型 (40GB+) XML 文件加载到 SQL Server 表中

php - 在 PHP 中读取非常大的文件

python - 使用 pandas 加载过滤后的 .tda 文件的最简单方法是什么?

hadoop - 创建具有较大 (>1GB) BytesWritable 值大小的 SequenceFile 时出现 NegativeArraySizeException