这是一个基于意见的问题。 让我有一个 4k 行 50 列的 Excel 文件。 我必须一步一步处理这个文件。这里我提一下步骤
验证每一行的每个字段。 (这里运行一些mysql查询来检查数据库相关的验证)
如果所有数据都有效,那么我必须将此数据保存在 3 个表中并更新 1 个表
示例
1-20
列插入table_1
21-40
列插入table_2
41-50
列插入table_3
使用table_2
和table_3
的最后一个插入 ID
更新table_1
现在我想知道处理这些大数据的最佳实践是什么。
任何兼容 php
、cakephp
或 laravel
最佳答案
Now I want to know that what is the best practice to handle this big data.
与处理任何其他“大数据”一样:以给定大小的 block 读取和处理它,以便每个 block 都适合系统的限制。
关于php - 在php中处理来自excel的大数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29385898/