我正在使用 PHP 和 MySql 做一个预订网站,我将在其中获取大量用于插入单次插入的数据。意味着如果我一次获得 1000 个预订,我会非常慢。所以我想将这些数据转储到 MongoDb 并运行任务以保存在 MySql 中。此外,我还想使用 Redis 来缓存查看次数最多的数据。
现在我直接插入数据库。
请提出任何人对此有任何想法/建议。
最佳答案
就纯插入而言,它真的很难超越 MySQL...它是目前最快的纯追加引擎之一(持续刷新到磁盘)。
1000 行在 MySQL 插入性能中算不了什么。如果您完全落后,请减少二级索引的数量。
这是一个非常有用的基准:https://www.percona.com/blog/2012/05/16/benchmarking-single-row-insert-performance-on-amazon-ec2/ ,显示每秒插入 10,000-25,000 个单独的插入。
这是另一个比较 MySQL 和 MongoDB 的例子:DB with best inserts/sec performance?
关于php - 一次处理更多插入的想法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36931499/