我正在开发一个基于 Web 的数据分析系统,想知道在管理大型数据集时的最佳做法是什么。我将数据存放在 MySQL 数据库中并使用 php。
例如,如果我希望能够即时过滤数据表,我知道有 2 个选项:
- 对所有数据查询一次数据库并使用javascript在客户端过滤数据或
- 每次过滤器更改时执行新查询以更新数据
在我看来,选项 1 是更好/更快的选项,但是当数据集变得非常大(即 >100k 行)时,这是一个坏主意
也许还有其他更好的方法来解决这个问题,但到目前为止我还不知道有任何建议,我们将不胜感激!
谢谢
最佳答案
最好是只根据您的需要查询数据库。
然后你通过ajax加载并在你需要的时候查询你需要的其他部分。
在客户端渲染 10 万行会花费太多时间;)
关于php - 管理大型数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18394593/