csv - 构建大型线性程序

标签 csv large-files linear-programming ampl

我想构建一个 LP,其参数由 5 到 10 个、25,000,000 到 50,000,000 行 .csv 文件(每个文件大约 500mb 到 1Gb)给出。

我的模型当前使用 AMPL 进行编码,并直接从 .csv 文件读取参数值。我使用的具有 1 Gb RAM 的 Windows XP 在尝试仅基于一个 500mb .csv 的数据构建模型时内存不足

我的问题: 有没有办法管理我的数据,以便我可以使用更少的内存构建 LP?

我感谢任何具有构建大型 LP 经验的人提供的所有反馈。

最佳答案

如果您的计算机上只有 1 GB RAM,那么您很难加载并解决如此大的问题,其中 .csv 文件本身就有 500 MB 或更多.

如果无法添加更多 RAM 内存,则需要分析 LP 问题,看看是否可以将其分成更小的独立部分。例如,如果您遇到一个包含 10,000 个变量和 10,000,000 行的问题,也许可以将主要问题分解为 100 个独立的子问题,每个子问题包含 100 个变量和 100,000 行?

Here是一个虽然过时的书籍章节的链接,该章节讨论将大型 LP 问题分离为可管理的子问题。

关于csv - 构建大型线性程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11413327/

相关文章:

php - 为什么我通过 php/mysql 生成的 CSV 文件上写有错误,而不是数据

python - 用 Pandas 延迟加载 csv

vba - 通过宏导入 CSV 时日期格式不一致

java - 将特定行和列的 .csv 转换为 .xls 值加倍

python - 从大型(密码)列表中聚合和删除重复项的有效方法

linear-programming - 无法使用 CPLEX 从 LP 中导出对偶值

routes - 车辆路径的线性规划

vim - 如何使用vim,sed或其他类似工具将大文件(100万行)中的成对连续行连接起来?

.net - SQLite:BLOB用于存储大文件吗?

linear-programming - 单纯形法求解 tsp 的速度有多快?